The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Rackspace и NASA представили открытый стек для обеспечения работы cloud-инфраструктуры

20.07.2010 20:55

Компания Rackspace и космическое агентство NASA анонсировали новый свободный проект OpenStack, предназначенный для поддержания работы инфраструктуры cloud-вычислений. Созданный в рамках инициативы OpenStack код распространяется под лицензией Apache 2.0. Платформа нацелена на создание как публичных cloud-сервисов, подобных Amazon EC2, так и приватных (локальные) cloud-окружений, полностью подконтрольных и работающих только для обеспечения нужд компании.

Предпосылкой к созданию проекта послужило отсутствие на рынке высокомасштабируемых открытых решений, способных обслуживать инфраструктуру виртуальных серверов больших хостинг-компаний, подобных Rackspace (100 тыс. виртуальных серверов клиентов). Пытаясь создать оптимальное для своих задач решение, компания Rackspace скооперировалось с агентством NASA, которое также пыталось создать средство для управления большими наборами данных и тысячами вычислительных узлов. Объединив уже созданные наработки Rackspace и NASA учредили проект OpenStack, который решили развивать как свободное ПО. Перспективность новой платформы уже оценили заинтересованные в cloud-вычислениях и виртуализации фирмы - к инициативе уже присоединились такие компании, как Citrix, AMD, Dell, Cloud.com, NTT Data, Intel, а также множество специализирующихся на cloud-вычислениях небольших фирм.

По заявлению создателей OpenStack, проект будет полностью открытым, не будет никаких расширенных проприетарных версий и коммерческих лицензий, вся функциональность будет доступна и открыта, весь код будет доступен в репозиториях на любой стадии его интеграции в проект. Решения по развитию и архитектуре OpenStack будут приниматься прозрачно и с привлечением сообщества разработчиков - для управления проектом будет создан независимый управляющий совет. Своей открытостью OpenStack выгодно отличается от ближайшего конкурента - проекта Eucalyptus, у которого отмечается два существенных недостатка: ограниченная масштабируемость (агентство NASA в свое время перестало использовать Eucalyptus из-за проблем с развертыванием большого числа серверов) и закрытость части кодовой базы (открытая community-версия существенно урезана по возможностям, enterprise-редакция является проприетарным продуктом).

В настоящий момент в рамках проекта развиваются два продукта:

  • Полностью распределенное, отказоустойчивое и высоконадежное хранилище объектов OpenStack Object Storage, основанное на коде разработанного в недрах компании Rackspace сервиса для организации хранения файлов в сети. Хранимые объекты сохраняются одновременно на несколько узлов кластера в дата центре, при этом обеспечивается автоматический контроль целостности и репликация при отключении/добавлении узлов. Хранилище масштабируется горизонтально, т.е. для увеличения размера достаточно просто добавить новые узлы, конфигурация которых производится автоматически. При выходе узла из строя, его содержимое воспроизводится на других узлах сети для обеспечения должной избыточности. Дублирование информации позволяет использовать для формирования кластера типичные недорогие серверы, не заботясь о надежности каждого из них в отдельности.
  • Инструментарий OpenStack Compute для централизованного управления группой серверов, обеспечения работы масштабируемой вычислительной cloud-сети и работающих в ней виртуальных окружений. OpenStack Compute позволяет автоматически создавать и управлять работой больших групп VPS-серверов. Система основана на технологии NASA Nebula и наработках, применяемых для оказания услуги Rackspace Cloud Servers. OpenStack Compute написан на языке Python с использованием фреймворков Tornado и Twisted, для обмена сообщениями используется протокол AMQP, для хранения данных задействована БД Redis.


  1. Главная ссылка к новости (http://openstack.org/blog/...)
  2. OpenNews: Компания Rackspace приютила разработчиков СУБД Drizzle (легковесный MySQL)
  3. OpenNews: Бывший руководитель MySQL AB возглавил компанию Eucalyptus Systems
  4. OpenNews: Novell и IBM объявили о сотрудничестве, связанном с самодостаточными программными окружениями
  5. OpenNews: Ubuntu Enterprise Cloud преодолел отметку в 12 тысяч внедрений
  6. OpenNews: Сервис Cloud.com открыл исходные тексты стека для развертывания Cloud-инфраструктуры
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/27370-virtual
Ключевые слова: virtual, cloud
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (18) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, pro100master (ok), 22:42, 20/07/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
      Rackspace и NASA представили открытый стек для обеспечения работы cloud-инфраструктуры
    ------------
    не cloud,а vps. Почувствуйте разницу (ц)
     
     
  • 2.2, Аноним (-), 23:06, 20/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    На сайте OpenStack про VPS ни слова, зато в каждом предложении упоминается cloud.

    cloud - это более широкое понятие, чем VPS. Грубо говоря cloud это куча серверов, на которых организуется работа VPS, при том, что эти сервера рассматриваются как нечто абстрактное, т.е. запущенный VPS плавает где-то в "облаке", а не на фиксированном сервере. По идее - это верный подход, когда не нужно заботиться о том как и где будет работать VPS, все само автоматически организуется и балансируется по требованиям к выделяемым VPS ресурсам. Если сгорит сервер, ничего страшного, VPS автоматом мигрирует на другой хост, пользователь даже не заметит миллисекунд простоя.

     
     
  • 3.3, Valentine31 (??), 23:35, 20/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    если сгорит сервер - пользователь еще как заметит :), если конечно нет дублирования памяти
     
  • 3.4, sHaggY_caT (ok), 23:36, 20/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    >т.е. запущенный VPS плавает где-то в "облаке", а не на фиксированном сервере

    Распространенное заблуждение. Выполняется, как раз, на одной ноде. Но, действительно, нет смысла узнавать, на какой ноде из пула.

    cloud, на самом деле, другое. То, что Вы перечислили, это доступно на любом не low-cost VPS-сервисе с дисками на SAN. Cloud, в данном случае(Amazone) означает то, что VPS "резиновые" :)

     
     
  • 4.11, koblin (ok), 12:38, 21/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    Насколько VPS в облаке "резиновые"? Так понимаю больше одной ноды и ее ресурсов оно не займет? Или можно объединить ноды в облаке в один супер-vps?
     
     
  • 5.12, sHaggY_caT (ok), 14:05, 21/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    Правильно понимаете, за исключением дисковой подсистемы, которая маштабируется гораздо лучше.
    Только у дисковой есть свой недостаток: практически нигде не предоставляется регламентированное количество i/o, соотвественно, Вы их получаете столько, сколько получаете.
    Эта проблема особенно касается дешевых VPS с локальной дисковой подсистемой(raid-массивом), хотя и для Amazone тоже характерна, и еще больше Xen/Hyper-V VPS на локальном raid, так как у них большой оверхед на i/o, и без SAN (а это уже совсем другая стоимость услуг VPS) Вы получаете просто очень медленную дисковую. В OVZ/PVC VPS с дисковой, если хостер не экономит, и не продает безвоздушные, неосязаемые мегагерцы (которые вечно будут в iowait) с SAS-дисками ситуация чуть по-лучше.

    Но вообще, непреодолимых технических препятствий сделать SMP на несколько машин, с учетом существования шины InfiniBand, нет. Только вот дешевые "резиновые" VPS сейчас на таком оборудовании, наверное, продавать нереально.

     
  • 5.23, Undir (?), 09:42, 19/08/2010 [^] [^^] [^^^] [ответить]  
  • +/
    ScaleMP позволяет объединить нескольких серверов в один гораздо более мощный, с возможностью использования поверх него KVM и Xen. Правда решение проприетарное. http://blog.trinitygroup.ru/search/label/ScaleMP
     
  • 3.5, God (?), 23:43, 20/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    Если останется чему мигрировать... Уж явно не миллисекунды. Не верю.
     
     
  • 4.6, sHaggY_caT (ok), 23:49, 20/07/2010 [^] [^^] [^^^] [ответить]  
  • +2 +/
    >Если останется чему мигрировать... Уж явно не миллисекунды. Не верю.

    Если общее хранилище, после смерти ноды обычно перезапускают VPS на новой. Даунтайм составляет:

    1. Время реакции управляющего ПО кластера
    2. "Подсечка" упавшей ноды (обычно, 1-2 секунды через UPS/IPMI), что бы с блокировками на кластерной ФС(clvm, и т д) разобраться
    3. Время загрузки VPS с нуля. Эффект будет аналогичен нажатой кнопке "резет", и загрузке через несколько секунд на железном сервере. Данные будут актуальны, и не побьются при наличии журналируемой ФС, и лога базы данных.

    Так же есть решения у VmWare и для Xen, для того, что бы и ребута не было, так как память VPS дублируется на другие машины кластера (то есть, после небольшой паузы в обслуживании возобновляется работа), но это чревато очень большой деградацией производительности.

     
     
  • 5.10, sashka_ua (?), 12:34, 21/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    кошка, А Вы уже и в облачных вычислениях крутитесь?

    С.

     
     
  • 6.15, sHaggY_caT (ok), 19:23, 21/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    >кошка, А Вы уже и в облачных вычислениях крутитесь?

    HA-доступность VPS для кластера нод под виртуализацию имеет весьма, имхо, отдаленное отношение к непосредственно "облакам".

    Облака же, если продаются в виде VPS, на самом деле, ничем технически не отличаются от обычного кластера с виртуалками, только:

    1. Тарифные планы не маркетойдные, а "резиновые"
    2. Предоставляется API для управления своими заказнными параметрами тарифных планов


     
     
  • 7.18, pro100master (ok), 22:28, 21/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    >HA-доступность VPS для кластера нод под виртуализацию имеет весьма, имхо, отдаленное отношение
    >к непосредственно "облакам".
    >
    >Облака же, если продаются в виде VPS, на самом деле, ничем технически
    >не отличаются от обычного кластера с виртуалками, только:
    >
    >1. Тарифные планы не маркетойдные, а "резиновые"
    >2. Предоставляется API для управления своими заказнными параметрами тарифных планов

    вот, полностью поддерживаю. Панельку для VPS-ок выдавать за облако, это просто маркетинг уровнем чуть выше :)))

     
  • 3.14, pro100master (ok), 14:36, 21/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    Рекомендую пройтись по всем OS-облакам или облакам с комунити лицензией. Я просмотрел их 12. Все они - менеджмент VPS. Да-да-да. Вы работаете с теми самыми VPS, у которых есть минимальные и максимальные MHz, GB и т.п.
    Т.е. чтобы было так, что ставим на облако какую-либо считалку и она автоматом бы получала столько ресурсов, сколько ей надо в данный момент - ни одна система не предоставляет.

    Вот я и пишу, что облака эти - маркетинговые. И про миграции можете тут не писать. Если вы пользователю дадите ноду (VPS) в у неё "мама" откажет, дать ему другую проблем не будет. Проблемы начнутся, когда ему выделенных 500MHz не хватит.

     
     
  • 4.16, sHaggY_caT (ok), 19:47, 21/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    gt оверквотинг удален Вообще-то можно технически просто не ставить верхий лими... большой текст свёрнут, показать
     
     
  • 5.17, pro100master (ok), 22:25, 21/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    Вы не понимаете. Есть три основные задачи: хранилище (тут есть прогресс, причем железный и все довольны), БД, вэб/приложения (оба - мимо).

    Вот как вы эти кванты выделите, например, сайту с посещаемостью в 100к уников, если на сайт в какой-то момент времени зайдет 10к? А никак! С БД аналогично. Вы всегда упретесь в 1-4 проца, которые вы максимум можете выделить одной VPS. Т.е. опять те же самые распределенные системы, репликации и извраты программистов, делающие поддержку кода и решения довольно дорогим удовольствием.

    Облако (в моем понимании) - это когда есть столько ресурсов, сколько необходимо приложению ___сейчас___, а не столько, сколько ему кто-то там сверху выделил, чем совершил очередную в своей жизни ошибку. Вот поэтому эти все "облака" и маркетинговые, по-крайней мере до тех пор, пока не появятся решения вроде гугловских, когда выделяются не кванты, а реальная туча, х.з. как устроенная, но не заставляющая приложения согласовываться из VPS через интернет/сеть с другими VPS.

     
     
  • 6.20, sHaggY_caT (ok), 14:01, 22/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    >Вы не понимаете. Есть три основные задачи: хранилище (тут есть прогресс, причем
    >железный и все довольны), БД, вэб/приложения (оба - мимо).
    >
    >Вот как вы эти кванты выделите, например, сайту с посещаемостью в 100к
    >уников, если на сайт в какой-то момент времени зайдет 10к? А
    >никак! С БД аналогично. Вы всегда упретесь в 1-4 проца, которые
    >вы максимум можете выделить одной VPS.

    Вообще-то, люди на "железных" кластерах всегда стараются делать горизонтально маштабируемую систему.
    Обычно, "облачные" VPS предоставляют API и для быстрого разворачивания новых нод. Так что, проблема надуманна: нужно просто строить изначально кластерную систему. Это же все-таки именно VPS=аналог железного сервера, а не нечто выдуманно-виртуальное, как у Google или MS.
    Засчет этой специфики Вы получаете гораздо большую гибкость, ограниченную у того же мс или гугла, API.

     
     
  • 7.21, pro100master (ok), 15:54, 22/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    Гибкость в чем? Я не знаю сколько мне GHz понадобится. Сейчас 1, через полчаса 10, завтра в праймтайм 100. Вы же предлагаете мне ноды фиксированной ограниченной мощности, без малейшего представления о том, сколько мне может потребоваться. А разбивать приложения и базы по нодам я могу и сам. И без вашего расфуфыренного "облака". Как заметили выше - чисто панелька управления нодами.
     
     
  • 8.22, sHaggY_caT (ok), 16:20, 22/07/2010 [^] [^^] [^^^] [ответить]  
  • +/
    Вот скриптом и разворачивайте типовые ноды В чем проблема-то Когда не нужны,... текст свёрнут, показать
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру