Представлен (http://www.ovirt.org/release/4.0.0/) выпуск платформы oVirt 4.0.0 (http://www.ovirt.org/), в рамках которой развивается основанная на гипервизоре KVM и библиотеке libvirt система для развёртывания, сопровождения и мониторинга набора виртуальных машин и управления облачной инфраструктурой. Развиваемые в oVirt технологии управления виртуальными машинами применяются в продукте Red Hat Enterprise Virtualization и могут выступать в роли открытой альтернативы VMware vSphere. Кроме Red Hat в разработке также принимают участие компании Canonical, Cisco, IBM, Intel, NetApp и SUSE. Код проекта распространяется под лицензией GPLv2. Готовые пакеты доступны (http://www.ovirt.org/download/) для Red Hat Enterprise Linux 7.2, CentOS 7.2 и Fedora 23.
oVirt представляет собой стек, охватывающий все уровни виртуализации - от гипервизора до API и GUI-интерфейса. Несмотря на то, что в качестве основного гипервизора в oVirt позиционируется KVM, интерфейс реализован как надстройка над библиотекой libvirt (http://libvirt.org/), которая абстрагирована от типа гипервизора и подходит для управления виртуальными машинами на базе различных систем виртуализации, включая Xen и VirtualBox. В составе oVirt развивается интерфейс для быстрого массового создания высокодоступных виртуальных машин с поддержкой средств Live-миграции окружений между серверами без остановки работы.
Платформой предоставляются средства для создания правил динамической балансировки и управления ресурсами кластера, механизмы управления энергопотреблением кластера, инструменты управления образами виртуальных машин, компоненты для конвертирования и импорта существующих виртуальных машин. Поддерживается единое виртуальное хранилище данных, доступное с любого узла. Интерфейс содержит развитую систему отчётов и средства администрирования, позволяющие управлять конфигурацией как на уровне инфраструктуры, так и на уровне отдельных виртуальных машин.
Наиболее заметные новшества:
- В web-интерфейсе WebAdmin UI реализована возможность произвольной манипуляции столбцами в таблицах - через специальное контекстное меню можно менять расположение столбцов и управлять их отображением;
- Добавлен интерфейс для добавления и редактирования параметров, передаваемых при загрузке ядра на выбранных хостах;
- Добавлены средства для отображения сведений о контейнерах Docker, запущенных в виртуальных машинах, работающих под управлением oVirt/RHEV;
- Добавлена функция создания пулов виртуальных машин (Stateful VM Pool), в которых VM всегда запускаются с сохранением состояния. Состояние VM схраняется даже при передаче виртуальной машины другому пользователю;
- В интерфейсы WebAdmin и User Portal добавлена поддержка дистрибутива RHEL Atomic Host (https://www.opennet.me/opennews/art.shtml?num=41795);
- Добавлена возможность удаления базового шаблона, даже если в системе имеются основанные на нём субшаблоны (после удаления самый старый субшаблон становится базовым);
- Для VNC по умолчанию теперь применяется графический драйвер vga, вместо ранее используемого cirrus;
- Добавлена возможность работы с настройками Cloud-init и sysprep через REST API;
- Добавлен web-интерфейс для загрузки дисковых образов VM в хранилище oVirt;
- Добавлена поддержка дисков в формате qcow2 и обеспечена возможность выбора данного формата при создании VM из шаблона;
- Унифицирована аутентификация пользователей, один сеанс теперь может использоваться для входа и в WebAdmin и в User Portal;- Возможность смены просроченного пароля с экрана входа в систему;
- Переведены в категорию устаревших: плагин для поддержки протокола SPICE (плагин заменила встроенная реализация), режим Legacy USB, применение механизма установки сеансов через REST API для подключения UI-плагинов (теперь используются токены SSO).URL: http://www.ovirt.org/release/4.0.0/
Новость: http://www.opennet.me/opennews/art.shtml?num=44736
Как оно уже близко к RHEV? И по стабильности? Можно уже на равне с Proxmox VE использовать?
Это апстрим rhev, а прохмох пусть горит в аду
А теперь ты резко называешь альтернативу проксмокса для 10-20 виртуалок и одного-двух серверов. Стандартное SOHO.
попрошу не путать:
SOHO - это один сегмент
Proxmox - это стрельба себе в ногу (ну или не себе, а тому кто будет поддерживать эту лапшу, рожденную в воспаленных умах школьников, которые не осилили лучшее, что есть в мире виртуализации Linux - RHEL/Centos и Selinux) - совсем другой сегмент
ну а по теме - ESXi или Xenserver будут отличной альтернативой Proxmox, а он им нет
ESXi:
- не может в софтварный RAID.
- бесплатная версия - неуправляемый обрубок.
наравне? прокмокс даже не близко
какой он был конструктор, который фиг кто соберёт, таким он и остался
а в поддержке вообще ад
Ну это про половину OS можно сказать. Поэтому майки рулят в корпсекторе.
Их посади в любую монополию бабку директора линуксового вендора, и линукс в монополии придёт к "успеху".
> какой он был конструктор, который фиг кто соберёт, таким он и остался
> а в поддержке вообще адэто в тебе не состоявшийся МССП (курс-то не осилил) бесится :)
В продкшене начиная с 3.6.3, полет нормальный
В RHEV больше плюшек из коробки + поддержка и оперативные баг фиксы
Это если есть подписка и сертифицированное оборудование. Если нет - при обновлении ядра могут быть проблемы.
какие плюшки идут только с RHEV?
как поддержка радует или не очень?
В админке RHEV сделана интеграция с reports portal, импорт вм из vmware (есть ограничения на поддерживаемые ОС), сам веб-интерфейс работает стабильнее и быстрее.
Поддержка как поддержка - на тикеты реагируют в соответсвии с SLA. Иногда быстрее пошерстить багзиллу или спросить в рассылке ovirt.
> В админке RHEV сделана интеграция с reports portal, импорт вм из vmware
> (есть ограничения на поддерживаемые ОС), сам веб-интерфейс работает стабильнее и быстрее.
> Поддержка как поддержка - на тикеты реагируют в соответсвии с SLA.
> Иногда быстрее пошерстить багзиллу или спросить в рассылке ovirt.можете сравнить с vmware?
RHEL/oVirt
+ linux, настраивай и автоматизируй что и как хочешь (в RHEV-h есть ограничения)
+ интеграция в инфраструктуру (foreman, ansible, satellite, etc...)
+ цена- нет готового решения для бэкапа вм (acronis не будем считать, с тем же успехом все бэкапится скриптами)))
- нет готового решения для восстановления на другой площадке (аналога vmw SRM нету)
> RHEL/oVirt
> + linux, настраивай и автоматизируй что и как хочешь (в RHEV-h
> есть ограничения)
> + интеграция в инфраструктуру (foreman, ansible, satellite, etc...)
> + цена
> - нет готового решения для бэкапа вм (acronis не будем считать, с
> тем же успехом все бэкапится скриптами)))на гитхабе есть готовое
> - нет готового решения для восстановления на другой площадке (аналога vmw SRM
> нету)какое решение? репликация на уровне SAN, и когда надо - цепляем реплицированный SD на сайте DR
> на гитхабе есть готовоеМожно ссылку?
>> на гитхабе есть готовое
> Можно ссылку?
Ну да, если б не было проблем с живым слиянием слиянием снапшотов до 3.6.7.
С репликацией тонкостей тоже хватает... Я же не говорил что это не возможно, просто более трудоемкий процесс нежели vmw
> Ну да, если б не было проблем с живым слиянием слиянием снапшотов
> до 3.6.7.
> С репликацией тонкостей тоже хватает... Я же не говорил что это не
> возможно, просто более трудоемкий процесс нежели vmwну, репликация у меня работала с drbd и HDS у разных клиентов еще в 2.2, сейчас, когда каждый домен держит метадату сам, все намного проще, можно реплицировать только домены, и цеплять их на другом сайте, а не реплицировать вообще все, включая engine
В производстве 3.5.3 - всё гуд.
не смог использовать 3.х ибо gui на яве было настолько медленным, что не хотелось его ждать.
> не смог использовать 3.х ибо gui на яве было настолько медленным, что
> не хотелось его ждать.вообще-то он на GWT, и если тормозит то проблема у тебя и ее скорее всего можно решить
Народ, а может ли этот ovirt как-то делать реплику своих хранилок? Ну вот если у меня, скажем, два SAN одинаковых по iSCSI подключены, то можно ли с его помощъю HA наладить? Учитывая что хранилки - не NetApp и SnapMirror не умеют.
Нет, средствами массива.
Можно попробовть репликацию glusterfs
То есть только средствами гостя собирать RAID1 из iSCSI дисков?? Только такое извращение? Блииин :-(
Нет, lun с разных схд отдаются двум физическим серверам, на них настраивается glusterfs и подключается хостами виртуализации. Гостевой ОС знать про хранилище ничего не надо
GlusterFS вызывает подозрения в плане производительности. К тому же, зачем тогда СХД, если можно обойтись двумя glusterfs нодами..
> GlusterFS вызывает подозрения в плане производительности. К тому же, зачем тогда СХД,
> если можно обойтись двумя glusterfs нодами..в последних версиях gluster очень сильно улучшили в этом плане
> То есть только средствами гостя собирать RAID1 из iSCSI дисков?? Только такое
> извращение? Блииин :-(можно отдавать реплицированный том drbd, и в случае необходимости цеплять копию на другом сайте
Если только ради q35 из коробки. Остальное и так ок в 3.6. Кстати, придется все хосты и engine на семерки перевести ради 4 овирта.
> Если только ради q35 из коробки. Остальное и так ок в 3.6.
> Кстати, придется все хосты и engine на семерки перевести ради 4
> овирта.Если хосты еще не на семерке то уже что-то не так