Доступен (http://www.proxmox.com/news/press-releases/proxmox-ve-3-3-re... релиз Proxmox Virtual Environment 3.3 (http://www.proxmox.com), специализированного Linux-дистрибутива на базе Debian GNU/Linux, нацеленного на развертывание и обслуживание виртуальных серверов с использованием OpenVZ и KVM, и способного выступить в роли замены таких продуктов, как VMware vSphere, Microsoft Hyper-V и Citrix XenServer. Размер установочного iso-образа (http://www.proxmox.com/downloads/) 540 Мб. Начиная с выпуска 3.1 по умолчанию предлагается платный репозиторий Enterprise, возможность использовать бесплатный репозиторий сохранена (http://pve.proxmox.com/wiki/Package_repositories) и он является достаточно стабильным, но создатели дистрибутива не гарантируют качество его работы не рекомендуют к промышленному использованию.
Proxmox VE предоставляет средства для развёртывания полностью готовой системы виртуальных серверов промышленного уровня с управлением через web-интерфейс, рассчитанный на управление сотнями или даже тысячами виртуальных машин. Дистрибутив имеет встроенные инструменты для организации резервного копирования виртуальных окружений и доступную из коробки поддержку кластеризации, включая возможность миграции виртуальных окружений с одного узла на другой без остановки работы. Среди особенностей web-интерфейса : поддержка безопасной VNC-консоли; управление доступом ко всем доступным объектам (VM, хранилище, узлы и т.п.) на основе ролей; поддержка различных механизмов аутентификации (MS ADS, LDAP, Linux PAM, Proxmox VE authentication).
В новом выпуске (http://pve.proxmox.com/wiki/Roadmap#Proxmox_VE_3.3):
- В поставку добавлен пакет pve-firewall (http://pve.proxmox.com/wiki/Proxmox_VE_Firewall) с реализацией межсетевого экрана;
- Поддержка двухфакторной аутентификации с использованием устройств или программ, поддерживающих определённые в стандарте OATH (http://en.wikipedia.org/wiki/Initiative_For_Open_Authenticat... (Initiative For Open Authentication) механизмы генерации одноразовых паролей;
- Реализована и задействована по умолчанию HTML5-косноль (noVNC) для доступа в shell, к виртуальным машинам и к контейнерам;
- В GUI добавлен интерфейс для настройки межсетевого экрана и сетевых мостов для openvz;
- Добавлен Proxmox VE Mobile (http://pve.proxmox.com/wiki/Proxmox_VE_Mobile), web-интерфейс для мобильных устройств;
- Добавлен плагин с поддержкой хранилищ ZFS. Обеспечена настройка ZFS через GUI;
- QEMU обновлён до выпуска 2.1.
<center><iframe width="640" height="360" src="//www.youtube.com/embed/DjK4po0GxVI?rel=0" frameborder="0" allowfullscreen></iframe></center>URL: http://www.proxmox.com/news/press-releases/proxmox-ve-3-3-re...
Новость: http://www.opennet.me/opennews/art.shtml?num=40608
The Best имхо.
apt-get dist-upgrade пройдет без проблем с 3.2 с учетом того что установлен на райде зеркальном ?
Надеялся, что в 3.3 будет 3.10 ядро - обломался.
Надеялся, что нормальный фаервол будет - обломался.
--------------------------------------------
На тестовом обновился с 3.2 до 3.2 без проблем, по крайней мере HTML5-косноль заработала сразу.
3.10 будет, когда выйдет openvz на rhel7-ядре.
что до файервола, для одиночной ноды проще ограничиться конфигом iptables.
Так ядро от 7 редхата есть и в 3.2 только openvz работать не будет.Пруф:
http://download.proxmox.com/debian/dists/wheezy/pve-no-subsc.../
pve-kernel-3.10.0-4-pve_3.10.0-17_amd64.deb 01-Sep-2014 12:16 34M
да, но я имел в виду решение из коробки, со всем набором опций.
Подскажите, в их тарифных планах, начиная с standard, есть пункт "Remote login via SSH". Это указывает на то, что интерфейс управления over ssh доступен только с этой платной подписки? Или я что-то путаю?
Это означает, что они могут подключиться к тебе по ssh и решить проблему, в случае чего.
> Это означает, что они могут подключиться к тебе по ssh и решить
> проблему, в случае чего.Не очевидно как-то.
Спасибо.
т.е. у тебя установлен proxmox и ты ещё ни разу не пробовал на него по ssh зайти ? так что ли ?
Такие админы сейчас пошли. Что поделать...
А связь с ним через putty...
С чего ты взял что он у меня установлен?
Нет, я его в жизни в глаза не видел.
Все хорошо, жаль для мобил клиент платный, хотя кроме ssh я ничем не пользуюсь...
В каком месте он платный и почему тебе жаль, что он БЕСПЛАТНЫЙ?
зайди на android маркет и посмотри...
А ты, балбес, читал, что такое этот "официальный" клиент? Это обычный клиент SPICE, и в маркете есть бесплатные типа aSpice. Так что кури бамбук со своим "официальным", как ты выразился
А ты Вики читать умеешь? Зайди и посмотри офф. рекомендации имбицил!
А я уже давно на опенстеке. Но прохмох хорош искоробочностью и тем, что пользователь вообще ничего понимать не должен.
Разработчики радуют. Очень толковая штука.
Народ, просветите, насколько и чем OpenViz лучше/хуже LXC?
s/OpenViz/OpenVZ/
Вопрос снимается: http://habrahabr.ru/company/FastVPS/blog/209084/
В процессе тестирования заметил одну забавную особенность.
Есть 4 ноды, по каким-то непонятным причинам, если у виртуалки включен HA, то она нормально мигрирует только между двумя нодами (либо с первой на вторую и обратно, либо с третей на четвертую и обратно), а перенести например с третьей на вторую не получается, пишет:Executing HA migrate for VM 120 to node virt-node-02
Trying to migrate pvevm:120 to virt-node-02...Operation violates dependency rule
TASK ERROR: command 'clusvcadm -M pvevm:120 -m virt-node-02' failed: exit code 249При этом, если выключить для виртуалки HA, то она переезжает без проблем.
Кто-то значет, как это забороть?З. ы. Писал багрепорт в проксмокс, сказали, что этот косяк решается только в рамках платной поддержки.
Failover domain используешь?
Да
Ну в таком случае могу предположить, что он у тебя настроен как Failback. Конфиг cluster.conf можно глянуть?
Пересобирал кластер, ситуация не изменилась, впски с включенным HA по-прежнему переезжают не между всеми нодами, а по какому-то не понятному принципу.cluster.conf в данный момент такой:
<?xml version="1.0"?>
<cluster config_version="36" name="mycluster">
<cman keyfile="/var/lib/pve-cluster/corosync.authkey"/>
<fencedevices>
<fencedevice agent="fence_ipmilan" ipaddr="10.10.13.106" lanplus="1" login="ADMIN" name="ipmi-virt-node-01" passwd="MYPASS" power_wait="60"/>
<fencedevice agent="fence_ipmilan" ipaddr="10.10.13.108" lanplus="1" login="ADMIN" name="ipmi-virt-node-02" passwd="MYPASS" power_wait="60"/>
<fencedevice agent="fence_ipmilan" ipaddr="10.10.13.110" lanplus="1" login="ADMIN" name="ipmi-virt-node-03" passwd="MYPASS" power_wait="60"/>
</fencedevices>
<clusternodes>
<clusternode name="virt-node-01" nodeid="1" votes="1">
<fence>
<method name="1">
<device name="ipmi-virt-node-01"/>
</method>
</fence>
</clusternode>
<clusternode name="virt-node-02" nodeid="2" votes="1">
<fence>
<method name="1">
<device name="ipmi-virt-node-02"/>
</method>
</fence>
</clusternode>
<clusternode name="virt-node-03" nodeid="3" votes="1">
<fence>
<method name="1">
<device name="ipmi-virt-node-03"/>
</method>
</fence>
</clusternode>
<clusternode name="virt-node-04" nodeid="4" votes="1"/>
</clusternodes>
<rm>
<service autostart="1" exclusive="1" name="ha_private_ip" recovery="relocate">
<ip address="10.10.12.5"/>
</service>
<service autostart="1" exclusive="1" name="ha_public_ip" recovery="relocate">
<ip address="$my_public_ip"/>
</service>
<pvevm autostart="1" vmid="103"/>
<pvevm autostart="1" vmid="104"/>
<pvevm autostart="1" vmid="105"/>
<pvevm autostart="1" vmid="109"/>
<pvevm autostart="1" vmid="110"/>
<pvevm autostart="1" vmid="111"/>
<pvevm autostart="1" vmid="117"/>
<pvevm autostart="1" vmid="118"/>
<pvevm autostart="1" vmid="119"/>
<pvevm autostart="1" vmid="120"/>
<pvevm autostart="1" vmid="100"/>
<pvevm autostart="1" vmid="101"/>
<pvevm autostart="1" vmid="102"/>
</rm>
</cluster>
На четвертой ноде нет ipmi, посему в fence она не описана.
Да, после пересборки кластера, failover domain не собирал.
> Failover domain используешь?столкнулся с такой проблемой на днях
решение есть?