Доступен (https://www.mail-archive.com/announce@ovirt.org/msg0036... выпуск платформы oVirt 4.2.0 (http://www.ovirt.org/), в рамках которой развивается основанная на гипервизоре KVM и библиотеке libvirt система для развёртывания, сопровождения и мониторинга набора виртуальных машин и управления облачной инфраструктурой. Развиваемые в oVirt технологии управления виртуальными машинами применяются в продукте Red Hat Enterprise Virtualization и могут выступать в роли открытой альтернативы VMware vSphere. Кроме Red Hat в разработке также принимают участие компании Canonical, Cisco, IBM, Intel, NetApp и SUSE. Код проекта распространяется под лицензией GPLv2. Готовые пакеты доступны (http://www.ovirt.org/download/) для Red Hat Enterprise Linux 7.4 и CentOS 7.4.oVirt представляет собой стек, охватывающий все уровни виртуализации - от гипервизора до API и GUI-интерфейса. Несмотря на то, что в качестве основного гипервизора в oVirt позиционируется KVM, интерфейс реализован как надстройка над библиотекой libvirt (http://libvirt.org/), которая абстрагирована от типа гипервизора и подходит для управления виртуальными машинами на базе различных систем виртуализации, включая Xen и VirtualBox. В составе oVirt развивается интерфейс для быстрого массового создания высокодоступных виртуальных машин с поддержкой средств Live-миграции окружений между серверами без остановки работы.
Платформой предоставляются средства для создания правил динамической балансировки и управления ресурсами кластера, механизмы управления энергопотреблением кластера, инструменты управления образами виртуальных машин, компоненты для конвертирования и импорта существующих виртуальных машин. Поддерживается единое виртуальное хранилище данных, доступное с любого узла. Интерфейс содержит развитую систему отчётов и средства администрирования, позволяющие управлять конфигурацией как на уровне инфраструктуры, так и на уровне отдельных виртуальных машин.
Наиболее заметные (https://ovirt.org/blog/2017/12/ovirt-4.2.0-now-ga/) новшества (https://ovirt.org/release/4.2.0/):
- Изменено оформление web-интерфейса администратора, который переработан с использованием фреймворка Patternfly (http://www.patternfly.org/);- На смену старому User Portal пришёл новый web-интерфейс для пользователей виртуальных машин, написанный с использованием React и Patternfly;
- Представлен новый тип виртуальных машин High Performance (https://www.ovirt.org/blog/2017/10/introducing-high-performa... оптимизированный для решения задач, требующих высокой производительности (достижения производительности на уровне, близком к запуску на отдельном оборудовании). В отличие от ранее доступных типов "Server" и "Desktop" при выборе "High Performance" активируется привязка к отдельным ядрам CPU и IO Threads, а также настраивается топология привязки потоков ввода/вывода;
- Реализована новая система мониторинга в режиме реального времени oVirt Metrics Store, осуществляющая сохранение, анализ и визуализациию метрик о работе инфраструктуры;- Добавлена поддержка связывания виртуальных машин через SDN-сети (используется Open Virtual Network (OVN));
- Добавлена поддержка технологии vGPU NVIDIA (http://www.nvidia.com/object/grid-technology.html), позволяющей разделить физический GPU с поддержкой режима GRID на серию мелких экземпляров GPU, которые позволяют использовать в виртуальной машине полноценное GPU-ускорение без привязки выделенной графической карты;
- В состав включен набор пакетов ovirt-ansible-roles (https://ovirt.org/blog/2017/07/ovirt-ansible-roles-an-introd... для упрощения выполнения типовых административных задач. Все роли могут быть запущены из командной строки при помощи Ansible, а некоторые роли непосредственно из движка oVirt;- В качестве СУБД задействован PostgresSQL 9.5;
- Добавлена поддержка протокола LLDP (https://ru.wikipedia.org/wiki/LLDP) (Link Layer Discovery Protocol), позволяющего хостам oVirt собирать информацию со своих сетевых интерфейсов для оптимизации сетевой конфигурации;
- Возможность загрузки и выгрузки снапштов через REST API;
- Экспериментальная поддержка нового метода развёртывания движка с использованием Ansible (Hosted Engine Ansible Based Deployment, "ovirt-hosted-engine-setup --ansible")- Поставка ФС Gluster 3.12 и возобновление поддержки Gluster ISO Domain;
- Добавлен новый драйвер для удалённого доступа к виртуальным машинам из Windows 10;
- Повышена надёжность и увеличена производительности миграции хранилища и live-слияний;- Представлен новый мастер развёртывания самодостаточных конфигураций (self-hosted engine), поддерживающий систему рецензирования и редактирования настроек перед началом развёртывания;
- В утилиту virt-v2v, предназначенную для преобразования образов виртуальных машин для запуска под управлением KVM, добавлена поддержка виртуальных машин с Debian/Ubuntu и Windows.
URL: https://www.mail-archive.com/announce@ovirt.org/msg0036...
Новость: http://www.opennet.me/opennews/art.shtml?num=47774
Насколько oVirt лучше proxmox ?
Как Windows и Windows Server. Ovirt для продакшена.
Есть такое правило (забыл какой гуру-разработчик этих систем виртуализации его сформулировал):
1. От 1 до 15 виртуальных машин - VirtualDox/Qemu.
2. От 10 до 150 виртуальных машин или от 2 до 15 серверов виртуализации - Proxmox.
3. От 100 до 1150 виртуальных машин или от 10 до 70 серверов виртуализации - oVirt.
4. От 1000 и более виртуальных машин или от 50 и более серверов виртуализации - решения на базе OpenStack.
Спасибо, сохранил :3
> Есть такое правило (забыл какой гуру-разработчик этих систем виртуализации его сформулировал):
> 1. От 1 до 15 виртуальных машин - VirtualDox/Qemu.
> 2. От 10 до 150 виртуальных машин или от 2 до 15
> серверов виртуализации - Proxmox.
> 3. От 100 до 1150 виртуальных машин или от 10 до 70
> серверов виртуализации - oVirt.
> 4. От 1000 и более виртуальных машин или от 50 и более
> серверов виртуализации - решения на базе OpenStack.передайте гуро-разработчику, что у него кругом qemu
подвачну, quemu головного мозга
передайте горе-счетчику что один кластер в овирт поддерживает до 200 хостов, и кластеров могут быть десятки и даже сотни. опенстак и овирт это решения с разным назначением и масштаб тут никакого отношения не имеет
Кластер из 50 и более серверов виртуализации решения на базе OpenStack не утащат ибо петон.
Кейстон надо переписывать и rabbitmq менять. Только кастомные сборки. Инфа 100%
> Кластер из 50 и более серверов виртуализации решения на базе OpenStack не
> утащат ибо петон.
> Кейстон надо переписывать и rabbitmq менять. Только кастомные сборки. Инфа 100%блин, и как у меня 800 хостов работают только в местном ДЦ, и таких ДЦ несколько?
> блин, и как у меня 800 хостов работают только в местном ДЦ,
> и таких ДЦ несколько?Хостов - виртуалок или ты имеешь ввиду compute nodes?
Я про compute nodes + HA из контроллеров и т.п.
Если ты тоже про компьюты - то х.з. как оно у тебя работает, наверное медленно.
https://docs.openstack.org/performance-docs/latest/test_resu...
В последних версия ещё более-менее, но 'nova list' может до 3х минут отрабатывать.
> Кластер из 50 и более серверов виртуализации решения на базе OpenStack не
> утащат ибо петон.
> Кейстон надо переписывать и rabbitmq менять. Только кастомные сборки. Инфа 100%Признаю свою ошибку, промахнулся где-то на порядок. Речь об 500+ compute nodes.
> Признаю свою ошибку, промахнулся где-то на порядок. Речь об 500+ compute nodes.ну вот у меня ~800 на 5 контроллеров, а так как в проекте обычно несколько десятков инстансов, не более, то nova list прекрасно и быстро отрабатывает.
овирт для хостинга. он сложнее гораздо. проксмокс мне не понравился. я например не люблю везде ставить лвм. только где необходим. прокс выбора не дает. и снапшоты называть бэкапами, как делает проксмокс, неправильно.
Дело в том, что не только лишь все, мало кто может это делать.
Вы просто в нем не разобрались, lvm можно не использовать. Можно сначала поставить debian, а потом уже накатить proxmox.
А по сабжу: так vGPU - это круто!
Приятная новость! Красивый, новый интерфейс это конечно хорошо, но когда завезут нативные бекапы?
Надо же на чем-то зарабатывать
> От 1000 и более виртуальных машин или от 50 и более серверов виртуализации - решения на базе OpenStack.и много вы знаете провайдеров использующих openstack? AWS/GCP вот что то не используют
openstack - не для провайдеров. openstack - для себя, любимого. Когда _твои_ корпоративные игрушки перестали умещаться в обычные виртуальные машины, и понадобилось оперировать сервисами, а не отдельными изолированными виртуалками, пусть даже и перемещаемыми (от количества машин, на самом деле, не зависит).Понятия не имею, зачем и кому может взбрести в голову такое покупать на стороне, если оно ему на самом деле надо - и, видимо, эффективные менеджеры тоже не понимают, им "микросервисов" и прочий bullshit подавай, поэтому и предложений не особо.
вы не вкурили облака, это нормально (большинство не вкурило)два обязательных принципа любой облачной системы:
1. гибкое изменение доступных ресурсов по запросу
2. возможность осуществить изменение самостоятельно (т.е. конечный пользователь заходит в личный кабинет и сам сдвигает ползунок доступной памяти, а администратор такими вещами не занимается, он занимается только биллингом и правами пользователей)таким образом облака нужны только тем, кто их продаёт (бывают исключения, как например огромные корпорации, которые консолидируют инфраструктуру в одном дата-центре, но при этом дают филиальным админам самим рулить своими виртуалками (в рамках заранее выделенных лимитов конечно), выступающим как конечный пользователь)
те, кто рулят виртуалками с помощью openstack - забивают гвозди микроскопом, так можно, но это жуткий overkill (ресурсы, потраченные на поддержку openstack в долгосрочной перспективе заметно объемнее ресурсов, потраченных на сопровождение виртуалок)
> заметно объемнее ресурсов, потраченных на сопровождение виртуалокне факт.
> таким образом облака нужны только тем, кто их продаёт
они нужны тем, кто хочет сконцентрироваться на коде, а не героически бороться с железом/софтом
> вы не вкурили облака, это нормально (большинство не вкурило)вы похоже тоже.
> таким образом облака нужны только тем, кто их продаёт (бывают исключения, как
> например огромные корпорации, которые консолидируют инфраструктуру в одном дата-центре,
> но при этом дают филиальным админам самим рулить своими виртуалками (в
> рамках заранее выделенных лимитов конечно), выступающим как конечный пользователь)частные облака, а-ля опенстак, нужны тем кто хочет отдать управляемую инфраструктуру командам которые будут ее использовать, то есть нужно self service и стандартный API, плюс админ рулящий квотами. Продавать доступ к такой инфраструктуре или отдавать его бесплатно своим пользователям - вопрос бизнеса а не применения технологии
> openstack - не для провайдеров. openstack - для себя, любимого.тогда надо не забывать, чтобы оно работало для себя любимого - вам понадобится не хило прокачанная команда питонистов/девопсов. Ибо это позволить себе могут очень не многие
> тогда надо не забывать, чтобы оно работало для себя любимого - вам понадобится не хило
> прокачанная команда питонистов/девопсов.ну, блин, если у тебя есть, что на нем запускать - у тебя уже ТОЧНО есть такая команда.
а продавать сам openstack, а не выхлоп с того, что на нем крутится, как сервис, действительно, непонятно, кому. Те у кого команда, соберут сами, как им проще и удобнее.
Как просто платформу, кстати, редхат вполне продает. После установки доработать напильником по месту ;-)
А погуглить? https://www.openstack.org/marketplace/public-clouds/
Вчера только начал миграцию с этого поделия в OpenNebulu, почти год с ним мучался. если что-то не работает, то хрен ты что разберёшь в его явасрaче в логах
> Вчера только начал миграцию с этого поделия в OpenNebulu, почти год с
> ним мучался. если что-то не работает, то хрен ты что разберёшь
> в его явасрaче в логахlist@ovirt.org
А мне вот интересен опыт тех, кто использует OpenStack. Реально, кроме как для запуска виртуалок как-то используете? Распределенные сервисы не?