The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Публичная тестовая версия Red Hat Enterprise Virtualization 3.0

18.11.2011 10:39

Компания Red Hat объявила о начале публичного тестирования бета-версии промышленной платформы для организации управления виртуальной инфраструктурой - Red Hat Enterprise Virtualization 3.0. Первая тестовая версия RHEV 3 была выпущена в августе, но была доступна только ограниченному числу клиентов Red Hat. Нынешнюю версию может загрузить любой желающий.

Платформа RHEV основана на Linux-дистрибутиве Red Hat Enterprise Linux 6 и использует в работе технологию виртуализации KVM (Kernel Virtual Machine). Для управления виртуальной инфраструктурой предлагается использовать специально подготовленный web-интерфейс, позволяющий создавать и конфигурировать виртуальные машины. Для организации работы тонких клиентов используется протокол SPICE. Технологии RHEV, используемые для управления виртуальными машинами, уже переданы открытому проекту oVirt. Другие компоненты RHEV также распространяются в рамках лицензии GPLv2.

Особенности Red Hat Enterprise Virtualization 3.0:

  • Red Hat Enterprise Virtualization Manager теперь является Java-приложением, работающим на платформе JBoss Enterprise Application Platform. Вместо MS SQL Server используется PostgreSQL. Ранее приложение базировалось на платформе .NET и было написано на языке С#. Проект перешел в руки Red Hat после покупки компании Qumranet в 2008 году;
  • Портал управления позволяет конечным пользователям самостоятельно создавать шаблоны виртуальных машин, выполнять массовое развёртывание и управлять созданными окружениями;
  • RESTful API для конфигурирования и управления RHEV-M;
  • Расширенные возможности многоуровневого управления, позволяющие выборочно управлять ресурсами, разграничивать права доступа на уровне ролей и делегировать пользователям отдельные административные полномочия;
  • Поддержка использования локальных дисков для виртуальных машин (пока без возможности онлайн миграции);
  • Новая встроенная система отчётности, позволяющая анализировать изменение нагрузки и генерировать отчеты по использованию ресурсов;
  • Улучшения в протоколе SPICE, включая улучшение поддержки рабочих столов в Linux, поддержку динамического сжатия, автоматическую подстройку глубины цвета и эффектов рабочих столов;
  • Обновление гипервизора KVM:
    • Поддерживается до 160 логических CPU и 2 Тб ОЗУ для хостов, и до 64 логических CPU и 512 Гб ОЗУ для гостевых систем;
    • Инфраструктура sVirt позволяет использовать SELinux для обеспечения уровня безопасности, соответствующего требованиям военных стандартов;
    • vhost-net: сетевой стек KVM перемещён из пространства пользователя на уровень ядра, что позволило значительно увеличить производительность и уменьшить задержки;
    • Интегрирована поддержка "Transparent Huge Рages", реализующая технику динамического увеличения базового размера адресуемых страниц памяти, что приводит к сокращению числа используемых TLB-блоков (Translation Lookaside Buffer) и расширению возможностей по задействованию выделенной, но неиспользуемой памяти, для кэширования системных данных. Использование "Transparent Huge Рages" для виртуальных машин позволяет увеличить производительность за счёт сокращения числа операций по выделению памяти.
    • x2apic: паравиртуализированный контроллер прерываний для виртуальных машин, который уменьшает нагрузку от работы гостевых систем и позволяет добиться увеличения производительности в случае активности, связанной с интенсивной генерацией прерываний;
    • Async-IO: позволяет добиться заметного увеличения производительности при выполнении операций блокирующего ввода/вывода.


  1. Главная ссылка к новости (http://www.redhat.com/about/ne...)
  2. OpenNews: Началось бета-тестирование платформы Red Hat Enterprise Virtualization 3.0
  3. OpenNews: Релиз платформы Red Hat Enterprise Virtualization 2.2
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/32341-redhat
Ключевые слова: redhat, virtual
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (31) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Аноним (-), 11:27, 18/11/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    > пока без возможности онлайн миграции

    Немного не понимаю этого "пока".
    Законы физики и логики однозначно утверждают, выполнить живую миграцию виртуалки, подключенной к локальному блочному устройству хоста, невозможно без отключения этого устройства. Чтобы это пофиксить, механизм доступа к устройству должен изначально обладать сетевой прозрачностью (например, iSCSI). Так что приходится либо мириться с некоторым оверхедом даже при локальном использовании, либо перевключать устройства перед миграцией, что невозможно при его активном использовании.
    Не думаю, что в обозримом будущем что-то изменится.

     
     
  • 2.2, Moomintroll (ok), 11:33, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Законы физики и логики однозначно утверждают, выполнить живую миграцию виртуалки, подключенной к локальному блочному устройству хоста, невозможно без отключения этого устройства. Чтобы это пофиксить, механизм доступа к устройству должен изначально обладать сетевой прозрачностью (например, iSCSI).

    Не обязательно. Есть ещё Fiber Channel. А некоторые умудряются сделать shared storage на FireWire... А когда-то ещё использовали, говорят, shared же SCSI Bus.

     
     
  • 3.4, Влад (??), 12:54, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Не посчитайте за вброс, но Hyper-V в последних релизах под управлением SCCM позволяет мигрировать виртуалку с одной машины на другую НЕ размещенную на шаред сторадже.
     
     
  • 4.5, Moomintroll (ok), 13:02, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Не посчитайте за вброс,

    Ok

    > Hyper-V в последних релизах под управлением SCCM позволяет мигрировать виртуалку с одной машины на другую НЕ размещенную на шаред сторадже.

    Сдаётся мне, что для промышленной эксплуатации оно не вполне применимо из-за заметной задержки при миграции...

    Но фича прикольная.

     
     
  • 5.19, Аноним (-), 17:05, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Делал несколько раз миграцию с одного узла на другой вирутальной машины без общего хранилища.
    Занимает время:
    1. фриз/анфриз диска - доли секунды,
    2. копирование образа с узла на узел (виртуалка продолжает работать)
    3. фриз/анфриз памяти - доли секунды,
    4. копирование памяти с узла на узел (без заморозки)
    5. повторный фриз всего вместе
    6. если объём велик, 6.1.
    6.1. анфриз
    6.2. синхронизируем
    6.3. переход на 5.
    7. объём не велик, фриз, синхронизируем, отдаем состояние регистров
    8. смена маршрутов
    8. анфриз на втором узле

    Устанавливаемая в KVM-режиме винда без проблем переместилась на другой узел прямо на этапе копирования файлов. Общим был только образ сидирома.

    Так же, перемещал виртуальные машины на базе OpenVZ.

    Система виртуализации Proxmox VE.

     
     
  • 6.24, Cub (ok), 18:22, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Скажите, какой версии был Proxmox VE, и на каком железе?
    Спасибо.
     
     
  • 7.25, Аноним (-), 18:32, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Железо было очень различное:
    устанавливал первый узел на рабочей станции, типа HP 520B-MT
    Второй узел - IBM System x3550 M2

    Переносил без общего хранилища. Версия была предыдущая. Давно было, но помню щенячий восторг и сопли в пол-лица. :)

     
     
  • 8.29, Дмитрий (??), 00:59, 20/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    А с вами по мейлу можно пообщаться по поводу Проксмокса Дмитрий, bdmalex at Ma... текст свёрнут, показать
     
  • 6.28, ананим (?), 00:59, 19/11/2011 [^] [^^] [^^^] [ответить]  
  • –3 +/
    Не пойдет.
    Минимум - фриз диска, потом его миграция, фриз памяти, потом миграци... и уже потом антифриз диска.
    Так что да. вброс. но на голой системе отработает.
    К томуже что не понятно в
    > Поддержка использования локальных дисков для виртуальных машин (пока без возможности онлайн миграции);

    и да. юзайте ксен.

     
  • 4.6, Аноним (-), 13:09, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Hyper-V в последних релизах под управлением SCCM позволяет мигрировать виртуалку с одной машины на другую НЕ размещенную на шаред сторадже.

    Это как? Диск тоже копируется вместе с виртуалкой?
    Интересно, сколько суток продлится миграция виртуалки с маленьким (по меркам enterprise) 10Тб диском?

     
     
  • 5.8, Andrey Mitrofanov (?), 13:32, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > сколько суток продлится миграция виртуалки с маленьким (по меркам enterprise)

    Если "там" более или менее актуальная копия... Продолжать?
    Нет, я ж про "теоретически", про Технологии Майкрософт -- бг миловал.

     
     
  • 6.9, Ваня (?), 14:24, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +4 +/
    На собеседовании:
    - Пьёте?
    - (оживлённо) А что есть?
    - Да нет, я так... Теоретически...
    - А, теоретически... Теоретически не пью.
     
  • 6.12, Аноним (-), 15:27, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Если "там" более или менее актуальная копия... Продолжать?

    Да я сам продолжу. Эту копию надо прохешировать по блокам, как и оригинал образа на исходном хосте, чтобы установить, какие именно блоки нужно передавать.
    А особенно красиво, если данные на ФС виртуалки сильно фрагментированы и при этом некоторые файлы активно записываются...

     
     
  • 7.17, Andrey Mitrofanov (?), 16:30, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Никто %) и не обещал, что на WCCS или без shared стороаджа всё будет. Быстро/легко/вообще/...

    ЗЫЖ Ну, дак, в EV 3.0 Оно %) -- есть?? Кто уже?!...

     
  • 4.27, Аноним (-), 19:13, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Не посчитайте за вброс, но Hyper-V в последних релизах под управлением SCCM
    > позволяет мигрировать виртуалку с одной машины на другую НЕ размещенную на
    > шаред сторадже.

    Не посчитайте за вброс, но все управляторы hyper-v которые я видел были столь глючным и убогим булшитом что я вообще не понимаю - как это было выпущено вообще? Это тестировали сидя задницами на клавиатурах? Майкрософтовские средства виртуализации - лучшее что можно посоветовать... вашим врагам и конкурентам. Более глюкавых и падучих средств управления нет ни у кого.

     
  • 3.7, Аноним (-), 13:17, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Не обязательно. Есть ещё Fiber Channel. А некоторые умудряются сделать shared storage на FireWire... А когда-то ещё использовали, говорят, shared же SCSI Bus.

    Только вот все это, как правило, никак не связано с _локальными_ блочными устройствами хоста-гипервизора. Перечисленные технологии обычно используются для создания расшаренных хранилищ, доступных со всех гипервизоров кластера.

     
     
  • 4.10, Moomintroll (ok), 14:44, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Только вот все это, как правило, никак не связано с _локальными_ блочными устройствами хоста-гипервизора.

    Вы передёргиваете. "Всё это" как раз предоставляет _локальные_ блочные устройства, а не _сетевые_ в отличие, например, от iSCSI или AoE. Именно об этом я говорил.

    Иначе говоря, _локальные_ блочные устройства подразумевают наличие дискового контроллера (от floppy до FC HBA), в то время как _сетевые_ полагаются на, соответственно, сетевые контроллеры. И если Вы опять придумаете новое толкование, то заранее поинтересуюсь - FC, в принципе, можно притянуть к сетевым устройствам, а Shared SCSI Bus?

    > Перечисленные технологии обычно используются для создания расшаренных хранилищ, доступных со всех гипервизоров кластера.

    Ну а здесь всё правильно. Если не нужен shared storage, то куда проще, дешевле и при этом как минимум НЕ медленнее использовать SATA или SAS.

     
     
  • 5.11, Аноним (-), 15:24, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Вы передёргиваете. "Всё это" как раз предоставляет _локальные_ блочные устройства, а не _сетевые_ в отличие, например, от iSCSI или AoE. Именно об этом я говорил.

    Вы полагаете, что блочные устройства могут быть либо локальными, либо сетевыми?
    По-моему, называть тот же FC локальным - это сильное притягивание за уши и жестокое издевательство над терминологией.
    Локальное устройство хоста - это устройство, подключенное исключительно к данному хосту (во всяком случае, по шине данных/управления).
    Антоним понятия "локальное устройство" - "нелокальное устройство" (всегда ваш, Кэп). Доступ к нелокальному устройству может быть организован через LAN, через специализированную высокоскоростную шину, либо как-то еще. При этом, как правило, обеспечивается возможность организации совместного доступа нескольких хостов к одному устройству.

    Надеюсь, использование корректной терминологии позволит нам избежать дальнейшего непонимания.

     
     
  • 6.13, Moomintroll (ok), 15:30, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > FC, в принципе, можно притянуть к сетевым устройствам, а Shared SCSI Bus?
     
     
  • 7.15, Аноним (-), 15:33, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >> FC, в принципе, можно притянуть к сетевым устройствам, а Shared SCSI Bus?

    Устройство, подключенное к шареной сказе, не является ни локальным, ни сетевым //К.О.

     
  • 3.14, Аноним (-), 15:32, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Не обязательно. Есть ещё Fiber Channel. А некоторые умудряются сделать shared storage
    > на FireWire... А когда-то ещё использовали, говорят, shared же SCSI Bus.

    Насколько я помню, никаких проблем с живой миграцией KVM при доступе к диску по FC нет.
    Речь идет именно о локальных дисках, т.е. доступных только с конкретного хоста.

     
  • 2.3, sdog (ok), 11:45, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    диски тоже можно мигрировать, как RAM.
     
  • 2.16, PnD (??), 16:08, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Перед "переездом" виртуалка по-любому суспендится. После чего на новое место переносятся остатки изменений на подключенных устройствах и виртуалка "просыпается" на новом месте. Кто этого не умеет (фря например), в результате валится в корку, обнаружив "как все изменилось" (время там скакнуло ну и всякие другие счетчики). Ну а дальше уже - в зависимости от возможности подключенного блочного устройства. В принципе, можно вручную перенести винт из одной корзины в другую и обучить гипервизор, что с этим делать :). А можно, к примеру, подключить SAN в режиме кластера. Где-то будет рулить DRBD (что-то аналогичное и мелкомягкие у себя замутили, afaik), где-то достаточно раздавать файл с NFS|CIFS. Ну, короче, RTFM.
     
     
  • 3.18, Аноним (-), 16:32, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > А можно, к примеру, подключить SAN в режиме кластера. Где-то будет рулить DRBD (что-то аналогичное и мелкомягкие у себя замутили, afaik), где-то достаточно раздавать файл с NFS|CIFS.

    Все это замечательно и, по большей части, уже давно используется (например, KVM умеет мигрировать при доступе к образу через iSCSI, NFS, GFS2 или FC).
    Единственное "но" - все это никак не относится к локальным блочным устройствам. Разве что
    > можно вручную перенести винт из одной корзины в другую и обучить гипервизор, что с этим делать

     
     
  • 4.21, NONAME (?), 17:24, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    просто для сведения:

    мигрирования используя команду в терминале без использования хранилища слато возможно RHEL 6.1
    man virsh на тему migrate на 6.1

    запилить этот функционал в веб админку дело времени !


     
  • 3.26, sdog (ok), 19:10, 18/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Перед "переездом" виртуалка по-любому суспендится. После чего на новое место переносятся
    > остатки изменений на подключенных устройствах и виртуалка "просыпается" на новом месте.
    > Кто этого не умеет (фря например), в результате валится в корку,
    > обнаружив "как все изменилось" (время там скакнуло ну и всякие другие
    > счетчики). Ну а дальше уже - в зависимости от возможности подключенного
    > блочного устройства. В принципе, можно вручную перенести винт из одной корзины
    > в другую и обучить гипервизор, что с этим делать :). А
    > можно, к примеру, подключить SAN в режиме кластера. Где-то будет рулить
    > DRBD (что-то аналогичное и мелкомягкие у себя замутили, afaik), где-то достаточно
    > раздавать файл с NFS|CIFS. Ну, короче, RTFM.

    http://blog.allanglesit.com/2011/08/linux-kvm-management-live-migration-witho

    короче, RTM.

     

  • 1.30, AnonymousRex (?), 22:13, 24/11/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Всем кто завис пытаясь осились блочную миграцию:
    http://www.linux-kvm.com/content/qemu-kvm-012-adds-block-migration-feature
    http://wiki.qemu.org/Features/LiveBlockMigration

    удивляет что мелкая фича всех напрягла, а то что аналог vsphere, полностью открытый и неограниченный, стал доступен никому не интересно

     
     
  • 2.31, Andrey Mitrofanov (?), 11:43, 25/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > удивляет что мелкая фича всех напрягла, а то что аналог vsphere, полностью
    > открытый и неограниченный, стал доступен никому не интересно

    Это Вы про "код через забор"? Да, в RH - доступен, в oVirt, _когда_ череззаборное творчество бесплатные энтузиасты освоят, -- будет.

    Впрочем, да, круто. Пользую kvm/libvirt/virt-manager -- допиленных свободных версий, спаибо RH.

     
     
  • 3.32, АнонимусРекс (?), 12:30, 25/11/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Это Вы про "код через забор"? Да, в RH - доступен, в
    > oVirt, _когда_ череззаборное творчество бесплатные энтузиасты освоят, -- будет.

    это я о том как размусолили невозможность миграции при локальной дискохранилке, вчистую проигнорировав все остальное

     

  • 1.33, rh (?), 08:54, 01/02/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    А кто-нибудь подключал рабочий KVM-хост(не готовую ноду) к oVirt?
    Спасибо!
     
     
  • 2.34, AnonymousRex (?), 12:24, 01/02/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > А кто-нибудь подключал рабочий KVM-хост(не готовую ноду) к oVirt?
    > Спасибо!

    подключиться она подключится, но готовые ВМ на ней видны не будут, если они не созданы через engine или не импортированы через v2v или export domain

     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру