Состоялся (https://www.proxmox.com/en/news/press-releases/proxmox-ve-4-...) релиз Proxmox Virtual Environment 4.2 (http://www.proxmox.com), специализированного Linux-дистрибутива на базе Debian GNU/Linux, нацеленного на развертывание и обслуживание виртуальных серверов с использованием LXC и KVM, и способного выступить в роли замены таких продуктов, как VMware vSphere, Microsoft Hyper-V и Citrix XenServer. Размер установочного iso-образа (http://www.proxmox.com/downloads/) 699 Мб.Proxmox VE предоставляет средства для развёртывания полностью готовой системы виртуальных серверов промышленного уровня с управлением через web-интерфейс, рассчитанный на управление сотнями или даже тысячами виртуальных машин. Дистрибутив имеет встроенные инструменты для организации резервного копирования виртуальных окружений и доступную из коробки поддержку кластеризации, включая возможность миграции виртуальных окружений с одного узла на другой без остановки работы. Среди особенностей web-интерфейса : поддержка безопасной VNC-консоли; управление доступом ко всем доступным объектам (VM, хранилище, узлы и т.п.) на основе ролей; поддержка различных механизмов аутентификации (MS ADS, LDAP, Linux PAM, Proxmox VE authentication).
В новом выпуске (http://pve.proxmox.com/wiki/Roadmap#Proxmox_VE_4.2):
- Web-интерфейс переведён на использование фреймворка Sencha Ext JS 6, добавлен новый набор пиктограмм и реализованы динамически генерируемые графики производительности;
- Пакетная база обновлена до Debian Jessie 8.4.0;
- Обновлены версии ядра Linux 4.4.6 и KVM/qemu 2.5.1;
- Добавлена поддержка динамического выделения места в хранилище ("thin provisioning") на основе LVM (Logical Volume Manager).
- В инсталлятор включены преднастроенные плагины для LVM thin provisioning и ZFS;
- Добавлена поддержка генерации SSL-сертификатов через сервис Let´s Encrypt;
- Модуль ядра drbd обновлён до выпуска 9.0.2, а инструментарий drbdmanage до выпуска 0.95;
- Новые возможности LXC: улучшенная настройка контейнеров, ограничение сетевой полосы пропускания, добавление точек монтирования через GUI, возможность монтирования rootfs для доступа к другим контейнерам, улучшение системы резервного копирования и работы со снапшотами. Добавлена поддержка Alpine Linux и Ubuntu 16.04;- Добавлен диалог подтверждения операция удаления виртуальной машины или контейнера.
URL: https://www.proxmox.com/en/news/press-releases/proxmox-ve-4-...
Новость: http://www.opennet.me/opennews/art.shtml?num=44330
Кто-нибудь использует в продакшене? Реально замена для ESXi/vSphere ?
Более чем реально.
Ровно до тех пор пока тестируешь сам новые сборки. В последнем релизе падает в течении суток 100% новых kvm-виртуалок на шине sata.
Использую в нескольких организациях в продакшене.
В том числе в кластере с shared storage.Там, где за лицензии VmWare заплатили бы стоимость 2-3 неплохих серверов - бесплатно.
Так вроде бы писали, что начиная с в.4 он стал платный, или я путаю?
Бесплатный. За деньги обновления и поддержка.
Зависит от того, что нужно заменять. vSphere большой набор продуктов, а не только esxi. А вот esxi заменяет с головой. Полноценный линукс, zfs, web-интерфейс, HA и бэкапы из коробки.
просто, быстро , работает как часы , при обновлении ничего не ломается , оч доволен )
С первой по третью версию использовал - kvm, openvz, iscsi для хранилища, поверх него nfs для контейнеров и raw volumes для kvm.
Работало практически без нареканий - мелкие шероховатости со скриптами запуска iscsi и один апдейт заблокировавший контейнеры - фигня по сравнению с полученным профитом.
Удобный Web-UI без богомерзкого флэша - огромный плюс.
Ещё из мелких шероховатостей - дурацкие настройки pve-firewall, которые режут GRE-пакеты, и невозможность при помощи этого же pve-firewall пробросить порт в виртуалку.
Кстати, не так давно они в пользу vnc-like выпилили и богомерзкую жаву из console для виртуалок. Стало сильно лучше.
Используем давно. Из реально требуемых вещей, без которых уже не видится работа админа: снимки перед серьёзной работой с серверов, живая миграция между нодами.
> Используем давно. Из реально требуемых вещей, без которых уже не видится работа
> админа: снимки перед серьёзной работой с серверов, живая миграция между нодами.На случай если кто обрадуется: это не отменяет необходимость держать образ виртуалки в доступном для всех нод хранилище.
Блин, я ещё с 3.4 не обновился до 4, всё руки не доходят. А они уже дальше погнали.
>>3.4 не обновился до 4там изменения по контейнерам,
если тока kvm юзаешь то норм... иначе читать и тестить.а так вообще проксмокс хорош...
Аналогично
Причем, в 3.4 у меня исчезли многочисленные и фатальные глюки с распределением памяти на хостах и я теперь боюсь что-либо трогать :-)
Не торопись, lxc-контейнеры сырые до невозможности использования.
Обновишься, когда (если) OpenVZ 7 впилят
Да у меня только kvm, так что тут проблем нет.
Использую LXC 1.1.5. Очень стабильно и удобно. А вот proxmox удобен только своими плюшками из коробки. Но то как он сам устроен и когда немного покопаешься в потрохах, то становится тошно - поделка на коленках.
а, собственно, если не затруднительно - в чем поделочность то?
или перл не устраивает?
Структура папок: есть /var/lib/lxc со стандартной структурой папок LXC, но он не используется. Почему-то осталась папка /var/lib/vz, которая активно используется.
Хранение конфигураций: динамическое создание конфигураций при загрузке - бесит.
Хвосты от openVZ по всей системе.
Сам LXC не полностью функционален. Например lxc-ls --active - не работает.
Многие скажут - так оно же для web-управления, но я не согласен. Данный продукт не обеспечивает полного абстрагирования от консоли, а значит должно быть всё прозрачно для человека не использовавшего proxmox ранее.
Ну и старые недочёты и отсутствие необходимого функционала (невозможность банального задания default-ного template-а или сетевого моста, системы автоматического развёртывания, API, который не охватывает весь функционал)
Там есть и повеселее моменты, например, ребуты при свопе на zfs с настройками по-умолчанию.
небось на хосте меньше 4 гигов памяти
Хоть сколько памяти. Если будет своп, то будет краш.
> небось на хосте меньше 4 гигов памятиДело в нагрузке. Как только клиентов становятся тысячи - lxc кладется намертво вне зависимости от какиех-либо ресурсов. Вероятно какие-то особенности сборки proxmox. Офигенный подарок.
И пока вспомнил - для создания контейнера LXC используются темплейты OpenVZ
Mainstream support
The end date of Proxmox VE 3.4 mainstream support is April 30, 2016. On this date, also the Debian Wheezy security support is ending.Extended Support
Proxmox VE 3.4 will get security updates until February 28, 2017. This is only for security fixes. No new features will be implemented.
Кто нибудь сравнивал с Ovirt , есть какие плюсы\минусы ?
Ovirt, когда я его последний раз щупал, был монструозным, неуклюжим, глючным куском. Может что-то изменилось за 2 года, но не уверен.
Я вообще не осилил поднять один селфхостед гипервизор и локальным хранилищем.
А это конфигурация ни разу не рекомендованная, в первых версиях она вообще не поддерживалась. По удобству сравнима с процессом управлением машины из багажника.
Для рекомендованной конфигурации 2 + 1 + 1, которую в простонародье называют "На каждый чих по физическому серверу" установка и настройка тривиальны.
Обобщая: без blade сервера лучше даже не соваться.
интересно, как в нём отдать виртуалке сеть .1q транком?
У меня через openvswitch trunk прокидывается в виртуалку, просто в гуи не указываешь vlan и все, внутри виртуалки убунта с openvswitch тоже или можно по старинке через eth0.vlan_num
Подскажите, управление дисковыми iops (балансировка/ограничение) - есть?
да
> Подскажите, управление дисковыми iops (балансировка/ограничение) - есть?Есть, но не спасает от того, что хостовая система фризится от большого disk или net i/o.
Кому нибудь еще не хватает живой миграции контейнеров, или только мне?
и мне не хватает, поэтому пользуемся другой системой виртуализации
Roadmap
Linux Containers (LXC) live-migration (experimental)
> Roadmap
> Linux Containers (LXC) live-migration (experimental)Толку от lxc live migration если без неё lxc-контейнеры работают через одно место?
> Кому нибудь еще не хватает живой миграции контейнеров, или только мне?Она там почти есть, но сами контейнеры работают плохо
хранить контейнеры на ZFS теперь является рекомендованной практикой?
> хранить контейнеры на ZFS теперь является рекомендованной практикой?Нет. Partition the hard drive with ext4 (alternative ext3 or xfs) or ZFS
Как можно добавить темплейты LXC ?
> Как можно добавить темплейты LXC ?Темплейты LXC надо брать на OpenVZ вот здесь http://openvz.org/Download/template/precreated
и класть их в папку /var/lib/vz/template/cache
Спасибо. А то в доке написано, что можно через гуй скачать, но я не нашел в меню
>> Добавлена поддержка генерации SSL-сертификатов через сервис Let´s Encrypt;Кто-нибудь может объяснить как это работает? Насколько я знаю для Let´s Encrypt нужно подтвердить владение доменом (через DNS или файлик на веб), но proxmox разворачивают внутри сети, и используют приватные DNS зоны (вроде server1.company.int) Как можно подтвердить владение 192.168.Х.Х или 10.Х.Х.Х?
>>> Добавлена поддержка генерации SSL-сертификатов через сервис Let´s Encrypt;
> Кто-нибудь может объяснить как это работает? Насколько я знаю для Let´s Encrypt
> нужно подтвердить владение доменом (через DNS или файлик на веб), но
> proxmox разворачивают внутри сети, и используют приватные DNS зоны (вроде server1.company.int)
> Как можно подтвердить владение 192.168.Х.Х или 10.Х.Х.Х?Нет, не требуется. Клиент сам инициирует подключение к серверам Let's Encrypt
На приватные DNS зоны, как и IP нельзя получать сертификаты. Зато можно получить сертификат для proxmox1.example.com
Сертификат там используется для веб-морды, и я не думаю что кто-то в своем уме будет выставлять морду в интернет. Поэтому и вопрос возник.
Веб-интерфейс выставлять не надо, надо 80 порт.
Кому не нужен ovz или lxc, то рекомендую обычный libvirt + webvirtcloud
Админы одинокого гипервизора подтянулись с рекомендациями.
libvirt в последних версиях стал настолько жирным, что proxmox рядом с ним выглядит как "легковесное решение".
> libvirt в последних версиях стал настолько жирным, что proxmox рядом с ним
> выглядит как "легковесное решение".Собственно, в области легкой виртуализации до сих пор нет ничего быстрее и стабильно функционирующего под нагрузкой чем openvz и freebsd jail.
ох уж эти ыксперты
openvz как и jail вообще виртуализацией не являются
голый kvm с libvirt уложатся в 5% cpu и 70 мегабайт оперативки, если это для вас недостаточно легко, то что-то в вашей жизни явно пошло не так
Ну зато ты сразу видно большой ыксперт, но почему-то ты не осилил даже гугль:https://ru.m.wikipedia.org/wiki/FreeBSD_Jail
https://ru.m.wikipedia.org/wiki/OpenVZ> пошло не так
Твои фантазии пошли не так. В сочетании с твоим уровнем знаний в отрыве от реальной задачи они вообще не интересны.
Вопрос к тому, кто пишет что на продакшене использует:
Сколько виртуальных серверов? На каком железе работает? Так как с ibm pureflex проблемы были у дебиана, драйверов не хватало, а компилить или что то доставлять это колхоз когда у тя нод x240 больше сотни. Работает ли с флешки? Как переживает расширение raw диска на полке? С kvm проблемы были что гипервизор вис наглухо.
И самое главное по сравнению с VMware, поддерживает добавление на ходу памяти и процов?
Много вопросов!
У меня две ноды в работе, плюс третья чисто для кворума. ну и хранилище в ceph.
Шесть виртуалок и четыре контейнера
ноды HP DL380 G7-8, hpwdt отключил, работает всё относительно стабильно.
самый большой косяк - сплитбрейн, т.е. если упадут оба свича, то ноды дружно стреляют себе в голову.
Косяк поменьше - это кривые руки, например, исчерпал свободное место на ceph - все виртуалки "встали на паузу". При этом можно еще словить невозможность зайти на ноду, но из кластера нода не выпадает, и виртуалки даже остановить нет возможности. Даже после освобождения места на ceph, нода не оживает, приходится ребутить. На флешку народ ставит, но не я. В виртуалку на ходу процов не добавляет.
Не могу запустить созданную VM. В чем проблема? Вхожу под root. Все выполняю как в предыдущих версиях, но выдает Ошибка:start failed: command..
Аналогичная проблема:Running as unit 100.scope.
Could not access KVM kernel module: No such file or directory
failed to initialize KVM: No such file or directory
TASK ERROR: start failed: command...Как с этим бороться?!
> Аналогичная проблема:
> Running as unit 100.scope.
> Could not access KVM kernel module: No such file or directory
> failed to initialize KVM: No such file or directory
> TASK ERROR: start failed: command...
> Как с этим бороться?!У тебя не поддерживает проц виртуализацию, либо отключено в биосе.
В Биосе всё включено. Проблема была в проце при создании KVM. Выбрал просто KVM32 и всё заработало!