Proxmox VE je nástroj pro správu virtuálních serverů na KVM (Kernel-based) a kontejnerů LXC (Container-based).
Proxmox VE je Open Source software pod licencí GNU General Public License Affero (AGPL) v3.
Výtečné vlastnosti Proxmoxu spočívají v jednoduché instalaci, přehledné konfiguraci a správě i většího množství serverů z centrální konzole založené na webovém rozhraní.
Proxmox je postavený na distribuci Linux Debian a je ke stažení jako předpřipravené distro.
My si dnes jednu takovou instalaci ukážeme.
Instalace Proxmox:
Odsouhlasíme licenci:
Vybereme disk ( raid pole ) pro instalaci:
Vybereme svou zemi a časovou zónu:
Zadáme heslo pro root a e-mail administrátora:
A už jen FQDN a IP serevru:
A jdeme na kafe:
Fayzická instalace je dokončena a po restartu serveru už budeme pokračovat ve webovém rozhraní, které běží na https a portu 8006: (Přihlašujeme se rootovským heslem)
První pohled na rozhraní našeho samotného serveru.
A to je vlastně vše. Máme nainstalovaný náš Proxmox server a můžeme vytvářet kontejnery a virtuály dle libosti.
Proxmox Cluster:
Pojďme ale tento server připojit do našeho již existujícího proxmox clustreru:
apt-get update
apt-get upgrade
Předpokládejme, že si nechceme kupovat subscriptions, nebudeme tak mít přístup k enterprise repository, proto si repository změníme, aby jsme mohli provádět aktualizace upgrady:
echo "deb http://download.proxmox.com/debian jessie pve-no-subscription" > /etc/apt/sources.list.d/pve-no-subscription.list
mv -v /etc/apt/sources.list.d/pve-enterprise.list /.
Naninstalujeme si NTP, protože v rámci clusteru je velmi žádoucí mít na všech serverech správný čas:
apt-get install ntp
Pojďme tedy přiřadit náš proxmox06 server k našemu datacentru (10.0.0.1 zaměň za regulérní IP adresu )
pvecm add 10.0.0.1
Dostaneme výstup, který potvrdíme -y
The authenticity of host '10.0.0.1 (10.0.0.1)' can't be established. ECDSA key fingerprint is b0:03:d0:08:59:0f:05:07:03:02:06:08:0a:08:d0:e0. Are you sure you want to continue connecting (yes/no)? y
Budete dotázání na heslo root serevru ke kterému se připojujeme:
root@10.0.0.1's password:
zadáme ho a dostaneme obdobný výstup:
root@10.0.0.1's password: copy corosync auth key stopping pve-cluster service backup old database waiting for quorum...OK generating node certificates merge known_hosts file restart services successfully added node 'proxmox06' to cluster.
To vypadá dobře, ale pro jistotu si ověříme příkazem:
pvecm status
Výsledek:
pvecm status Quorum information ------------------ Date: Thu Jul 28 13:44:59 2016 Quorum provider: corosync_votequorum Nodes: 6 Node ID: 0x00000006 Ring ID: 6/512 Quorate: Yes Votequorum information ---------------------- Expected votes: 6 Highest expected: 6 Total votes: 6 Quorum: 4 Flags: Quorate Membership information ---------------------- Nodeid Votes Name 0x00000006 1 10.0.0.6 (local) 0x00000003 1 10.0.0.3 0x00000001 1 10.0.0.1 0x00000002 1 10.0.0.2 0x00000004 1 10.0.0.4 0x00000005 1 10.0.0.5
a příkazem:
pvecm nodes
Výstup:
pvecm nodes Membership information ---------------------- Nodeid Votes Name 6 1 proxmox06 (local) 3 1 proxmox03 1 1 PROXMOX01 2 1 proxmox02 4 1 proxmox04 5 1 proxmox05
Vidíme , že se nám náš proxmox06 vpořádku připojil ke clusteru:
Pojďme tedy zpět do webové konzole, která běží na všech proxmox serverech, takže je zcela jedno, který z nich si vybereme:
například tedy: https://proxmox02:8006 a po přihlášení už vidíme datacentrum kompletní včetně nového serveru:
Tím jsme docílili připojení našeho serevru ke clusteru.
Konfigurace Proxmox Clusteru:
Dobrý nápad je napojení na Active Directory, v případě Proxmoxu je to velmi snadné a funkční. Dostáváme tak možnost hlásit se ke svým Proxmox serverům doménovým jménem a heslem. Je k dispozici velké množství rolí s rozličnými právy , takže admin má přístup všude a může vše, ale například programátorovi dáme přístup jen na jeden konkrétní virtuální server na kterém vyvíjí svou aplikaci a to s omezenými právy.
Zálohovat budeme na NFS disk.
Připojení NFS, v našem případě z NASu je snadné, na záložce Storage si vyklikáme v poli Content co bude povoleno na NFS ukládat a které Nody budou mít na NFS přístup:
Na záložce Backup potom najdeme skvělej nástroj pro nastavení automatických záloh, vybíráme jaký server, na jaký cíl (v našem případě zmínený NAS) a jakou metodou budeme zálohovat:
Vytváření virtuálních hostů se provádí v jednoduchém průvodci:
Pozor, pokud z nějakého důvodu nepoužíváme HW raid a zvolili jste SW RAID a ZFS, vyberme ve volbě Hard Disk v poli Cache „Write back“, pokud necháte volbu „Default“ může docházet k problémům s bootováním Virtuálního serveru:
Pakliže náš procesor nemá podporu HW virtualizace , tak na kartě Options naší VM nastavme KVM Hardware virtualization na „No“:
Nastartujeme naší VM a ve webové konzoli začneme instalovat našeho prvního hosta…:
Závěr:
Proxmox na různých projektech používám 4-tým rokem, od malých nasazení, přes vývojářská prostředí, až po provoz core systémů a vždy se osvědčil, je stabilní a nikdy jsem nenarazil na žádný problém, který by nebyl řešitelný pár příkazy. Bezesporu je to i díky kvalitní dokumentaci dosažitelné snadno na stránkách výrobce.

Příznivec Open Source, Linuxu a IT obecně.
Živí se jako Ajťák, ve chvílích volna žije internetem a cestováním po významných pamětihodnostech zemí českých a moravských .
5 Responses to “Virtualizace Proxmox – instalace a konfigurace”
Potreboval by som poradit. Reagujem na tento vyborny clanok https://napovedy.cz/post/315 Vytvoril som si v proxmox 5.x kontajner (lxc) s debianom 9 zo sablony. Na hostitelskom stroji mam pripojenu do usb double citacku cez FTDI cip FT2232C.
Na hostitelskom PC je citacku pekne vidiet pod /dev/ttyUSB0 a /dev/ttyUSB1. Vo Proxmox VM funguje normalne, ale v LXC to neviem rozbehnut. Skusal som rozne navody, ale vobec sa mi nedari. Niekde som cital ze to funguje len v privilegovanych kontajneroch + treba pridat cez lxc-device Nevies nahodou ako by sa dala spristupnit citacka v LXC.
Ono je to asi trocha chranene aby LXC nemal priami pristup k HW, tak by tomu trebalo trocha pomoct.
Ak by sim mal s tym skusenosti, tak mi prosim daj vediet (pripadne aky by bolo potrebne poslat vypisy dmesg, lsusb a pod … tak neni problem.
Dobry den. Pouzivam ke spokojenosti Proxmox a moc se mi libi. Mám ale jeden problem. Spojil jsem dva servery do clusteru a nejak to blbne. Ikonka u jednoho serveru zcervena a vyskoci hlaska cluster not ready – no quorum? Nevíte prosím co s tím? Něco jsem hledal ve foru Proxmoxu, ale nejak moudrý z toho nejsem. Děkuji za jakoukoliv radu.
Dobry den, pomohl by vypis prikazu
systemctl status corosync.service
.Predpokladam vsak, ze v tomto pripade by mohlo pomoci prekopirovat soubor
/etc/corosync/corosync.conf
z toho „zdraveho“ na ten „polamany“ stroj.Petr
dd
mozna se neco zmenilo, ale pokud se pokusim updatovat dle vaseho navodu cistou instalaci verze 4.4.0 skoncim pokazde takto:
Fetched 56.0 MB in 4s (14.0 MB/s)
Reading changelogs… Done
(Reading database … 39069 files and directories currently installed.)
Preparing to unpack …/libuutil1linux_0.6.5.9-pve15~bpo80_amd64.deb …
Unpacking libuutil1linux (0.6.5.9-pve15~bpo80) over (0.6.5.8-pve13~bpo80) …
Preparing to unpack …/libnvpair1linux_0.6.5.9-pve15~bpo80_amd64.deb …
Unpacking libnvpair1linux (0.6.5.9-pve15~bpo80) over (0.6.5.8-pve13~bpo80) …
Preparing to unpack …/libpve-access-control_4.0-23_amd64.deb …
Unpacking libpve-access-control (4.0-23) over (4.0-19) …
Preparing to unpack …/libpve-storage-perl_4.0-76_all.deb …
Unpacking libpve-storage-perl (4.0-76) over (4.0-70) …
Preparing to unpack …/libzpool2linux_0.6.5.9-pve15~bpo80_amd64.deb …
Unpacking libzpool2linux (0.6.5.9-pve15~bpo80) over (0.6.5.8-pve13~bpo80) …
Preparing to unpack …/libzfs2linux_0.6.5.9-pve15~bpo80_amd64.deb …
Unpacking libzfs2linux (0.6.5.9-pve15~bpo80) over (0.6.5.8-pve13~bpo80) …
Preparing to unpack …/lxcfs_2.0.6-pve1_amd64.deb …
Unpacking lxcfs (2.0.6-pve1) over (2.0.5-pve1) …
Preparing to unpack …/lxc-pve_2.0.7-3_amd64.deb …
Unpacking lxc-pve (2.0.7-3) over (2.0.6-2) …
Preparing to unpack …/pve-ha-manager_1.0-40_amd64.deb …
Unpacking pve-ha-manager (1.0-40) over (1.0-38) …
Preparing to unpack …/pve-kernel-4.4.35-1-pve_4.4.35-77_amd64.deb …
Unpacking pve-kernel-4.4.35-1-pve (4.4.35-77) over (4.4.35-76) …
Preparing to unpack …/spl_0.6.5.9-pve8~bpo80_amd64.deb …
Unpacking spl (0.6.5.9-pve8~bpo80) over (0.6.5.8-pve7~bpo80) …
Preparing to unpack …/vncterm_1.3-1_amd64.deb …
Unpacking vncterm (1.3-1) over (1.2-1) …
Preparing to unpack …/zfsutils-linux_0.6.5.9-pve15~bpo80_amd64.deb …
Unpacking zfsutils-linux (0.6.5.9-pve15~bpo80) over (0.6.5.8-pve13~bpo80) …
Preparing to unpack …/zfs-initramfs_0.6.5.9-pve15~bpo80_all.deb …
Unpacking zfs-initramfs (0.6.5.9-pve15~bpo80) over (0.6.5.8-pve13~bpo80) …
Preparing to unpack …/libcorosync4-pve_2.4.2-1_amd64.deb …
Unpacking libcorosync4-pve (2.4.2-1) over (2.4.0-1) …
Preparing to unpack …/corosync-pve_2.4.2-1_amd64.deb …
Unpacking corosync-pve (2.4.2-1) over (2.4.0-1) …
Preparing to unpack …/pve-docs_4.4-3_all.deb …
Unpacking pve-docs (4.4-3) over (4.4-1) …
Preparing to unpack …/pve-libspice-server1_0.12.8-2_amd64.deb …
Unpacking pve-libspice-server1 (0.12.8-2) over (0.12.8-1) …
Preparing to unpack …/pve-qemu-kvm_2.7.1-4_amd64.deb …
Unpacking pve-qemu-kvm (2.7.1-4) over (2.7.0-9) …
Preparing to unpack …/spiceterm_2.0-2_amd64.deb …
Unpacking spiceterm (2.0-2) over (2.0-1) …
Preparing to unpack …/zfsutils_0.6.5.9-pve15~bpo80_all.deb …
Unpacking zfsutils (0.6.5.9-pve15~bpo80) over (0.6.5.8-pve13~bpo80) …
Processing triggers for pve-manager (4.4-1) …
Job for pvedaemon.service failed. See ‚systemctl status pvedaemon.service‘ and ‚journalctl -xn‘ for details.
dpkg: error processing package pve-manager (–unpack):
subprocess installed post-installation script returned error exit status 1
Processing triggers for man-db (2.7.0.2-5) …
Processing triggers for initramfs-tools (0.120+deb8u2) …
update-initramfs: Generating /boot/initrd.img-4.4.35-1-pve
Errors were encountered while processing:
pve-manager
E: Sub-process /usr/bin/dpkg returned an error code (1)
root@pm2:/#
tim to cele prestane byt funkcni a je konec.
s pozdravem
Dobry den,
sel jste postupem
apt-get update
,apt-get upgrade
? zkuste pokracovat prikazemapt-get dist-upgrade
. pokud nepomuze, tak bych pokracoval prikazemdpkg --configure -a
. Petr