The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
Зона Solaris не видит интернет., !*! Byte, (Solaris) 26-Май-10, 15:14  [ | | | ] [линейный вид] [смотреть все]
Есть Solaris 10 сервер.На нем есть две сетевухи rtls1 (12.34.56.78) смотрит в интернет, rtls0 (192.168.33.1) смотрит в локалку.Трафик между интернетом и локалкой ходит с помощью nat:

# cat /etc/ipf/ipnat.conf
map rtls1 192.168.33.0/24 -> 12.34.56.78/32

Создаю на этом сервере зону с параметрами:
zonecfg:httpdredirect> add net
zonecfg:httpdredirect:net> set address=192.168.33.3
zonecfg:httpdredirect:net> set physical=rtls0
zonecfg:httpdredirect:net> set defroute=192.168.33.1
zonecfg:httpdredirect:net> end

В итоге получаю сетевой интерфейс:
rtls0:1: flags=1100843<UP,BROADCAST,RUNNING,MULTICAST,ROUTER,IPv4> mtu 1500 index 2
        zone httpdredirect
        inet 192.168.33.3 netmask ffffff00 broadcast 192.168.33.255

В локальной сети данная зона работает нормально (видит все компы в локалке, ее тоже видят), а вот в интернет в отличие от реальных компов локалки она ходить отказывается.Подскажите, что нужно подправить, чтобы зона ходила в интернет?

XEN SERVER 5.5.0 upd2 глючит консоль в XenCenter, !*! XoXa, (Виртуализация) 13-Май-10, 15:32  [ | | | ] [линейный вид] [смотреть все]
Собсна сабж.
Пытаюсь посмотреть на рабочий стол виртуалки или поставить виртуалку и окно либо обновляется секунд 20, либо вообще не кажет. Пинг до сервака <1 мс. При попытке войти на виртуалку через RDP все отлично!
Никто не сталкивался?
Конвертирование видео на backend'е, !*! ciwl, (Кластеры) 10-Мрт-10, 13:36  [ | | | ] [линейный вид] [смотреть все]
Добрый день.

Необходимо организовать видеопортал. Одно из условий реализации - видео должно корвертироваться и хранится на backend'е, дабы не загружать сам вебсервер.

Какие есть обкатаные схемы реализации подобной задачи?

  • что, перевелись спецы или сабж настолько идиотский тривиальный, что лень даже о, !*! ciwl (ok), 15:52 , 14-Мрт-10 (1)
    что, перевелись спецы? или сабж настолько идиотский/тривиальный, что лень даже об этом сказать? )
    сообщить модератору +/ответить
  • Добрый день А какого рода помощь Вас интересует, конкретизируйте Мы реализовыв, !*! sHaggY_caT (ok), 03:46 , 01-Май-10 (2)
    >Добрый день.
    >
    >Необходимо организовать видеопортал. Одно из условий реализации - видео должно корвертироваться и
    >хранится на backend'е, дабы не загружать сам вебсервер.
    >
    >Какие есть обкатаные схемы реализации подобной задачи?

    Добрый день. А какого рода помощь Вас интересует, конкретизируйте? Мы реализовывали подобный проект.

    сообщить модератору +/ответить


2 и более аппаратных RAID-контроллера в сиcтеме одновременно, !*! netserfer, (Хранилища данных) 07-Апр-10, 12:22  [ | | | ] [линейный вид] [смотреть все]
Господа, а возможно ли на одной сиcтеме иметь 2 и более аппаратных RAID-контроллера?

Например, у меня есть 2-а Intel RAID SRCSASLS4I (http://www.nix.ru/autocatalog/controllers_intel/Intel_RAID_C...) 4-ёх канальных контроллера с интерфейсом PCI  Express 8x. Я хочу оба их вставить в материнскую плату, подклюичить к каждому контроллеру по 4-е SATA диска и забилдить RAID 5. В итоге у меня в системе  должно быть 2-а тома (на 2-ух аппаратных контроллерах соответственно).  Получится, как думаете?  У кого нибудь был подобный опыт? Собственно, меня интересует этот вопрос потому что 4-ёхканальники более чем в два раза дешевле 8-и канальников... А у меня задача построить недорогое отказоустойчивое хранилище.
Дисковый кеш (на запись), !*! IVB, (Увеличение производительнсти) 30-Мрт-10, 13:05  [ | | | ] [линейный вид] [смотреть все]
Есть сервер БД (MySQL) с RAID-контроллером от Compaq, который принципиально не поддерживает кеширование записи. В связи с этим очень узким местом этой системы являются операции записи на диск.

Гугление по поводу I/O кеша в Linux не дало никакой информации (возможно, я гуглил не по тем ключевым словам...)

Поэтому обращаюсь к сообществу со следующими вопросами:

Умеет ли I/O cache в ядре Linux (речь о ядре 2.6) кешировать не только операции чтения, но и операции записи? Если умеет - как включить? И как посмотреть, включено ли оно?

Если не умеет - есть ли какой-то программный кеш, который позволит включить кеширование записи на диск в ОЗУ?

Бесперебойник на сервере достаточно надежный, поэтому вопросы возможных катаклизмов при отложенной записи не актуальны.

ОЗУ на сервере более, чем достаточно (32 гига). Практически весь этот объем занимает именно кеш.

  • что за контроллер можно включить кэш диска ов, для сокращения времени отклика пр, !*! Doka (??), 22:58 , 30-Мрт-10 (1)
    >Есть сервер БД (MySQL) с RAID-контроллером от Compaq, который принципиально не поддерживает
    >кеширование записи.

    что за контроллер?
    можно включить кэш диска/ов, для сокращения времени отклика при записи.


    сообщить модератору +/ответить
  • покажите настройки mysql и версии, версии назовите , !*! anonymous (??), 02:51 , 31-Мрт-10 (2)
    покажите настройки mysql (и версии, версии назовите!).
    сообщить модератору +/ответить
  • Может быть, он просто не включается без батарейки По теме, после прочтения комме, !*! sHaggY_caT (ok), 03:34 , 01-Май-10 (27)
    >Есть сервер БД (MySQL) с RAID-контроллером от Compaq, который принципиально не поддерживает
    >кеширование записи. В связи с этим очень узким местом этой системы
    >являются операции записи на диск.

    Может быть, он просто не включается без батарейки?
    По теме, после прочтения комментариев:

    1. НЕ используйте 5-й рейд, сделайте десятый. Это обязательно, и сразу даст Вам очевидный эффект
    2. Не делайте этого(!) не отрепетировав схему восстановления из бэкапов, или не проклинайте меня потом, пожалуйста:

    http://wiki.centos.org/HowTos/Disk_Optimization

    Конечно, не Gentoo, но советы дельные

    3. Как уже сказали, тюньте innodb

    4. Может лучше вообще выкинуть этот недоконтроллер и сделать рейд через mdraid? Он гораздо быстрее, чем многие "православные" аппаратные контроллеры с кэшем, защищенным батарейкой, но слабым чипом для обсчета операций
    Сделайте десятый рейд через md, это может сразу же облегчить жизнь в разы

    сообщить модератору +/ответить


Самосборная СХД (OSOL, ZFS, Comstar), !*! m0ps, (Хранилища данных) 05-Мрт-10, 12:52  [ | | | ] [линейный вид] [смотреть все]
в связи с внедрением vmware vsphere остро встал вопрос об СХД. поскольку внедрение vsphere и так стоит немало, на нормальную СХД денег (пока) не дают. приходится выкручиваться, и тут на помощь хочу "позвать" OSOL + ZFS + Comstar.
подобрал следующее железо:
1*Supermicro SuperServer 6026C-3RF
1*Intel Xeon DP Quad-Core E5504 BX80602E5504
2*2Gb DDR3-1333 ECC Unbuffered Supermicro certified
2*250Gb WD2502ABYS
1*Kingston SNE125-S2/32GB, либо любой другой SLC SSD диск на 32 гига
5*1-TB WD1002FBYS

расклад винтов таков:
2*250 sata под операционку, 4*1000 sata raid1+0, 1*1000 hotspare, 1*32 ssd под ZIL

Вопрос: насколько сбалансирована данная конфигурация, не мало ли будет 4GB памяти, как opensolaris дружит с интегрированным sas контролером LSI 1086E?
имеет ли кто-то опыт построения СХД подобного рода, интересуют отзывы...



Проблемы с нагрузкой на CPU, !*! 0nik, (Увеличение производительнсти) 28-Янв-10, 01:16  [ | | | ] [линейный вид] [смотреть все]
Помогите решить проблему, руки опускаются (

Есть сервер
1 x CPU  E5530  @ 2.40GHz типа 8 ядер
мамка s5520ch
Linux bgp 2.6.26-2-amd64 #1 SMP Thu Nov 5 02:23:12 UTC 2009 x86_64 GNU/Linux

Сервер используется для роутинга, на нем поднято только bgp, рулит сетку 0/22.
Сервер гоняет через себя более 200 тыс пакетов сек в основном UDP
Загрузка по трафику около 150mbit исхода и 60mbit входящего.

Суть проблемы в том что при просмотре командой htop, 2 ядра из 8 показанных загружены на 100% остальные курят, самое интересное в том что я не могу понять что именно грузит.
Htop весь в красном цвете.

top
Cpu0  :  0.0%us,  0.0%sy,  0.0%ni,100.0%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Cpu1  :  0.0%us,  0.0%sy,  0.0%ni,100.0%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Cpu2  :  0.0%us,  0.0%sy,  0.0%ni,100.0%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Cpu3  :  0.0%us,  0.0%sy,  0.0%ni, 81.7%id,  0.0%wa, 16.7%hi,  1.7%si,  0.0%st
Cpu4  :  0.0%us,  0.0%sy,  0.0%ni, 47.7%id,  0.0%wa,  3.0%hi, 49.3%si,  0.0%st
Cpu5  :  0.0%us,  0.0%sy,  0.0%ni, 52.2%id,  0.0%wa,  2.7%hi, 45.2%si,  0.0%st
Cpu6  :  0.0%us,  0.0%sy,  0.0%ni, 87.3%id,  0.0%wa, 10.0%hi,  2.7%si,  0.0%st
Cpu7  :  0.0%us,  0.0%sy,  0.0%ni, 99.6%id,  0.4%wa,  0.0%hi,  0.0%si,  0.0%st
Mem:   2000528k total,   575500k used,  1425028k free,   142656k buffers
Swap:  5855652k total,        0k used,  5855652k free,   113952k cached

Cpu4 49.3%si  и Cpu5 45.2%si в дневное время упираются в 100%, пинг начинает прыгать, увеличивается с 1mc до 30mc и начинается попа ((

Подскажите как можно решить проблему, распределить нагрузку cpu4;cpu5 по всем ядрам

  • gt оверквотинг удален cat proc interruptsСначало ее надо понять, !*! Serge (??), 01:24 , 28-Янв-10 (1)
    >[оверквотинг удален]
    >
    >Сервер используется для роутинга, на нем поднято только bgp, рулит сетку 0/22.
    >
    >Сервер гоняет через себя более 200 тыс пакетов сек в основном UDP
    >
    >Загрузка по трафику около 150mbit исхода и 60mbit входящего.
    >
    >Суть проблемы в том что при просмотре командой htop, 2 ядра из
    >8 показанных загружены на 100% остальные курят, самое интересное в том
    >что я не могу понять что именно грузит.

    cat /proc/interrupts

    >Подскажите как можно решить проблему, распределить нагрузку cpu4;cpu5 по всем ядрам

    Сначало ее надо понять

    сообщить модератору +/ответить
  • 1 x CPU E5530 2 40GHz типа 8 ядермамка s5520chLinux bgp 2 6 26-2-amd64 1 SM, !*! Александр Лейн (?), 23:10 , 30-Янв-10 (6)
    >Есть сервер

    1 x CPU  E5530  @ 2.40GHz типа 8 ядер
    мамка s5520ch
    Linux bgp 2.6.26-2-amd64 #1 SMP Thu Nov 5 02:23:12 UTC 2009 x86_64 GNU/Linux


    а ничего, что у вас сборка для амд 64 на интеловском железе? или я чего-то не понимаю...

    сообщить модератору +/ответить
Проектирование виртуальной системы, !*! Grave, (Виртуализация) 18-Мрт-10, 08:24  [ | | | ] [линейный вид] [смотреть все]
Доброе время суток, уважаемое сообщество.
Задумалась наша компания о виртуализации, поскольку руководство об этих планах еще не знает, то можно все вначале спланировать, а потом уже сделать. Потому и решил спросить совета у тех, кто уже имеет опыт работы и виртуальными системами.
Задача. Виртуализировать десяток серверов на linux и windows(кака страшная, но приходится). Главная задача минимизировать время простоя при проблемах с железом. Потому ищется серьезное решение, с возможностью миграции виртуальных машин между физическими серверами.
Пока рассматриваются варианты от WmVare, CitriX и RHEL. Конечно же хочется использовать СПО, но можно и без этого.
Поделитесь опытом, кто что пробовал, чем не подошло, какие встретились подводные камни, обязательно ли потратиться на хорошее хранилище, как виртуализация сказалась на производительности.
SNMP - мониторить циски, IBM BladeCenter E, IBM NAS, !*! XoXa, (Аппаратное обеспечение) 16-Фев-10, 12:57  [ | | | ] [линейный вид] [смотреть все]
Кто-нибудь озадачивался данным вопросом?
С SNMP толком не знаком, но готов озадачиться вплотную так как работаю в дата-центре и тема крайне интересна в части мониторинга.
Пока нашел случайно вот такую тулзу - http://www.osp.ru/text/print/302/177490.html
Но выглядит она...Думаю есть какие-то более солидные решения.
Буду рад любому совету.
PostgreSQL 12G база. Тюнинг БД. Медлиный SELECT + ORDER BY, !*! Roaming, (Другие СУБД) 30-Июл-06, 14:36  (рейтинг 2,2) [ | | | ] [линейный вид] [смотреть все]
Доброго времени суток.

Первоначальные данные:
OC - FreeBSD 6.1 /AMD 3200+/ 1G RAM/ SATA HDD.
PostgreSQL 8.1
БД ~ 12G (40млн rows)

postgresql.conf:

  max_connections = 180
  shared_buffers = 4000
  temp_buffers = 1000
  work_mem = 850000
  max_fsm_pages = 407000
  fsync = off
  effective_cache_size = 102400
  stats_start_collector = on
  stats_command_string = on
  stats_row_level = on
  sort_mem = 5024 (опции небыло. Добавил, БД приняла.)
  
Возник следующий вопрос:
Средний SELECT выполняеться достаточно быстро.
Но если SELECT содержит ORDER BY то длиться он ~15 мин.
  Если UNION + ORDER + COUNT то все 10 часов.

Больше всего меня поразили показатели нагрузок в момент такого запроса:
IOSTAT ~ 2.00 MB/s (Вовремя REINDEX - 50MB/s)
SWAP < 1Mb
CPU Бездействие ~ 90%
RAM Свободно ~ 40%

Чего ему не хватает ?

P.S. Ошибок в логах нет.

На сколько надежны DAS MD1000?, !*! alexrn, (Хранилища данных) 25-Янв-10, 12:24  [ | | | ] [линейный вид] [смотреть все]
Привет.

Недавно столкнулся с ужасной проблемой. Стоял сервак с uptime в 1 год, в датацентре полетела UPS система и сервак ребутнулся в связи с чем потерял немало данных. Сейчас планирую к серверу купить решение построенной с DAS (Direct Attached storage)Dell MD1000. Засунуть туда несколько винтов с RAID10. Возник такой вопрос. На сколько надежен этот DAS в случае того же самого что произошло со мной недавно? Выдержит ли сам DAS такое падаение и т.п.? ПРосто ниразу не сталкивался с такими железками еще и не знаю на сколько они надежны.

Заранее всем спаибо!

  • А что - рейда не было или контроллер не серверный - без батарейки Сейчас план, !*! bob253 (?), 21:36 , 29-Янв-10 (1)
    >Привет.
    >
    >Недавно столкнулся с ужасной проблемой. Стоял сервак с uptime в 1 год,
    >в датацентре полетела UPS система и сервак ребутнулся в связи с
    >чем потерял немало данных

    А что - рейда не было ? или контроллер не серверный - без батарейки ?

    Сейчас планирую к серверу купить решение построенной
    >с DAS (Direct Attached storage)Dell MD1000. Засунуть туда несколько винтов с
    >RAID10.

    Что - такая крутая нагрузка ? Если справлялся сервак с внутренними винтами - то почему так сразу R1/0 ?

    Возник такой вопрос. На сколько надежен этот DAS в случае
    >того же самого что произошло со мной недавно?

    Если у него встроенный UPS есть - то надежен, если нет - то увы.

    Выдержит ли сам
    >DAS такое падаение и т.п.?

    не выдержит. Выдерживать должен контроллер, который или сохраняет в кеше (с помощью батарейки) данные или выдерживать должен массив.

    смотреть в сторону допустим EMC AX4-5 - как простейший, с iSCSI - и рост будет (в понимании серьезных технологий), смотреть что у него и свой УПС и свой кеш и т.д. И не один сервер обслужит.

    ПРосто ниразу не сталкивался с такими
    >железками еще и не знаю на сколько они надежны.
    >
    >Заранее всем спаибо!

    сообщить модератору +/ответить
  • Ты путаешь температуру кипения воды с прямым углом RAID тебя спасёт при выходе , !*! ACCA (ok), 21:49 , 29-Янв-10 (2)
    >RAID10. Возник такой вопрос. На сколько надежен этот DAS в случае
    >того же самого что произошло со мной недавно? Выдержит ли сам

    Ты путаешь температуру кипения воды с прямым углом. RAID тебя спасёт при выходе из строя винта, но не сбое питания. Слёт по питанию - проблема для файловой системы, а не для винта.

    1. Делай backup, желательно ежедневно
    2. Замени файловую систему. ZFS или ext4 или ещё какая-нибудь XFS с журналом

    Когда сделаешь первые два шага, подумаешь про защиту от слёта диска. RAID в DAS или SAN или на что ещё денег хватит.

    сообщить модератору +/ответить
  • gt оверквотинг удален Сочувствую Все верные советы уже дали Просто интересно д, !*! sHaggY_caT (ok), 21:09 , 26-Фев-10 (5)
    >[оверквотинг удален]
    >Недавно столкнулся с ужасной проблемой. Стоял сервак с uptime в 1 год,
    >в датацентре полетела UPS система и сервак ребутнулся в связи с
    >чем потерял немало данных. Сейчас планирую к серверу купить решение построенной
    >с DAS (Direct Attached storage)Dell MD1000. Засунуть туда несколько винтов с
    >RAID10. Возник такой вопрос. На сколько надежен этот DAS в случае
    >того же самого что произошло со мной недавно? Выдержит ли сам
    >DAS такое падаение и т.п.? ПРосто ниразу не сталкивался с такими
    >железками еще и не знаю на сколько они надежны.
    >
    >Заранее всем спаибо!

    Сочувствую.

    Все верные советы уже дали.

    Просто интересно(для личной статистики), а у Вас не raid0 случаем был? Пожалуйста, скажите, я бы хотела записать линк, и давать тем людям, которые не понимают, почему его использовать нельзя, так как в других аналогичных темах, что видела, обязательно начинались холивары.
    Помогите, пожалуйста, другим, что бы с ними не случилось такой ситуации.

    сообщить модератору +/ответить


nagios - для разных таймаутов оповещение на разные email, !*! Аноним, (Увеличение наджности) 15-Фев-10, 02:55  [ | | | ] [линейный вид] [смотреть все]
Добрый день
требуется настроить наджиос для рассылки оповещения при таймауте 10 минут на емыло-1
при таймауте 30 минут - емыло-2

не создавая в виде дополнительного скрипта или двойного определения сервиса,а стандартными методами - возможно ли такое сделать.

посоветуйте FS, !*! sluge, (Хранилища данных) 15-Фев-10, 22:13  [ | | | ] [линейный вид] [смотреть все]
под линукс нужна файловая система, которая может хранить в одном каталоге до миллиона файлов, и обеспечивать быстрый к ним доступ... что посоветуете?
Как мигрировать виртуальные машины?, !*! sheff.artx, (Виртуализация) 11-Фев-10, 16:58  [ | | | ] [линейный вид] [смотреть все]
Есть ESXi4u1-хост с Licensed Features -> Product Features -> Storage VMotion. По iSCSI, к нему подцеплены два хранилища. На одном развернуты виртуальные машины windows и linux. Как и каким софтом переместить виртуальные машины с одной хранилки на другую? В установленном сейчас vSphere Client ничего подобного не нашел... Подскажите, кто знает...

Fastwell CPC303-01 и linux, !*! axel101, (Аппаратное обеспечение) 13-Фев-10, 22:59  [ | | | ] [линейный вид] [смотреть все]
Последние несколько дней пытаюсь поставить debian на плату CPC303-01.
Проблема в том что на ней очень мало памяти (инсталлер прям об этом и говорит что памяти меньше чем минимум что мне надо).
Варианты загрузки для этой платы либо по сети, либо с compactFlash, либо с внутренней флехи, на которой стоит FDOS. При попытке поставить debian по сети на этапе скачивания компонентов инсталятора заполняется вся память и ядро начинает убивать процессы, после чего возникает kernel panic, мол памяти больше нет и убить нечего. Пытался подключить usb флеху и на ней сделать своп, процесс вроде пошёл, флеха моргает, своп используется, но потом та же история, только чуть позже (что странно, я пробовал и 128 мегов своп и 512 и даже гиг).
Попробовал таким же образом поставить centos, он тоже говорит что памяти меньше чем надо и в отличие от дебиана после этой надписи сразу перегружается.

Теперь вопрос: Какие вообще дистрибутивы используются на подобных промышленных компьютерах, и есть ли тематические сайты, форумы (желательно рускоязычные)?

  • GX1 32 MB SDRAM FFD 16 MB В общем понятно, почему там стоит FreeDOS , !*! Andrey Mitrofanov (?), 13:00 , 14-Фев-10 (1)
    >Последние несколько дней пытаюсь поставить debian на плату CPC303-01.
    >с внутренней флехи, на которой стоит FDOS. При попытке поставить debian

    ...GX1. 32 MB SDRAM. FFD 16 MB... В общем понятно, почему там "стоит" FreeDOS...

    Хотя с бругой стороны, в [минимум, если я правильно помню, сколько стоит в моей "коробочке с WiFi" за ~1900рэ] 2Мб флэша и 8Мб ОЗУ _некоторые запихивают... такое запхивают... [правда, _никакой "лишней" фунециональности] и даже продают миллионами(?) единиц.

    >больше нет и убить нечего. Пытался подключить usb флеху и на

    "Диск" на USB в общем-то само по себе может быть проблемой.

    >Теперь вопрос: Какие вообще дистрибутивы используются на подобных промышленных компьютерах,

    Старательно выпиленные _профессионалом образы ОС, заливаемые на флэшь. Вариантов два: учиться, пока у самого не выпилится что-то удовлетворяющее (долго?),++

    http://www.linuxfordevices.com/c/a/Linux-For-Devices-Article.../

    > и есть ли тематические сайты, форумы (желательно рускоязычные)?

    ++ либо заплатить кому-то, кто сделает... Да, "встраиваемая" техника -- это Индустия, за всё с тебя захотят денег.
    http:/cgi-bin/openforum/vsluhboard.cgi?az=list&forum=vsluhfo... ?

    сообщить модератору +/ответить
vmware, !*! har, (Виртуализация) 29-Янв-10, 09:09  [ | | | ] [линейный вид] [смотреть все]
Приветствую
подскажите как можно перенести действующий сервер linux в vmware esx server, т.е. виртуализировать его

Заранее благодарен

Как задействовать память, !*! bassmaster, (Увеличение производительнсти) 09-Фев-10, 14:35  [ | | | ] [линейный вид] [смотреть все]
freebsd# dmesg | grep memory
real memory  = 8589934592 (8192 MB)
avail memory = 3144896512 (2999 MB)

На сервере под FreeBSD-8.0 стоит 8 GB оперативной памяти. Хотелось бы задействовать всю, а не только 3 Gb. Пожайлуста подскажите как это сделать.

ESXi + SNMP + temperature, !*! sheff.artx, (Виртуализация) 05-Фев-10, 17:29  [ | | | ] [линейный вид] [смотреть все]
Подскажите, кто знает, как мониторить температуру сервера под ESXi?

sun 280r+adaptec 2130s+hp ultrium 232, !*! avator, (Серверные платформы) 03-Фев-10, 20:16  [ | | | ] [линейный вид] [смотреть все]
Привет всем:-)
не могу увидеть стример???
ls -l /dev/rmt/
total 0

исходные данные:
......
Release: 5.10
Kernel architecture: sun4u
Application architecture: sparc
Hardware provider: Sun_Microsystems
Domain:
Kernel version: SunOS 5.10 Generic_142900-03

cfgadm -al
Ap_Id                          Type         Receptacle   Occupant     Condition
c0                             scsi-bus     connected    configured   unknown
c0::dsk/c0t6d0                 CD-ROM       connected    configured   unknown
c1                             fc-private   connected    configured   unknown
c1::21000004cfc9def3           disk         connected    configured   unknown
c1::500000e0102f4dd1           disk         connected    configured   unknown
c3                             scsi-bus     connected    unconfigured unknown
c4                             fc-fabric    connected    configured   unknown
c4::500601603a601ec7           disk         connected    configured   unknown
c5                             scsi-bus     connected    unconfigured unknown
.....

/opt/StorMan/arcconf getconfig 1 ad
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller Status                        : Optimal
   Channel description                      : SCSI
   Controller Model                         : Adaptec 2130S
   Controller Serial Number                 : 16F8F9
   Installed memory                         : 256 MB
   Copyback                                 : Disabled
   Background consistency check             : Enabled
   Automatic Failover                       : Enabled
   Defunct disk drive count                 : 0
   Logical devices/Failed/Degraded          : 0/0/0
   --------------------------------------------------------
   Controller Version Information
   --------------------------------------------------------
   BIOS                                     : 5.2-0 (15611)
   Firmware                                 : 5.2-0 (15611)
   Driver                                   : 2.2-2 (1)
   Boot Flash                               : 5.2-0 (15611)
   --------------------------------------------------------
   Controller Battery Information
   --------------------------------------------------------
   Status                                   : Not Installed


/opt/StorMan/arcconf getconfig 1 pd
Controllers found: 1
----------------------------------------------------------------------
Physical Device information
----------------------------------------------------------------------
   Channel #0:
      Transfer Speed                        : Ultra320
      Initiator at SCSI ID 7
      Device #3
         Device is a Tape drive
         State                              : Standby
         Supported                          : Yes
         Transfer Speed                     : Ultra160
         Reported Channel,Device            : 0,3
         Vendor                             : HP
         Model                              : Ultrium 1-SCSI
         Firmware                           : P53D

Что посоветуете?
П.С. дядя гугл не гуглит:-(

Сетевые настройки во FreeBSD 8, !*! deletant, (Разное) 23-Янв-10, 15:43  [ | | | ] [линейный вид] [смотреть все]
Тестил скорость утилитой iperf. Когда на машине стоит freebsd, показует скорость 600Mbit/s,  а когда ubuntu - 960Mbit/s. В чем может быть проблема?
Диссертация на тему мониторинга и диагностики техн. средств, !*! demiurg, (Увеличение наджности) 16-Дек-09, 19:28  [ | | | ] [линейный вид] [смотреть все]
Здравствуйте!

Вот уже второй год пишу диссертацию на тему "Увеличение надежности и безопасности техн. средств за счет разработки и внедрения программного обеспечения контроля состояний оборудования". Естественно тема диссертации выглядит подругому. Это я так упростил.

На самом деле все просто:  есть сервера на закрытом объекте (атомная станция), на всех серверах linux + еще различные устройства snmp + еще различные датчики, которые через snmp не загонишь. Так вот я написал агенты, которые собирают данные с серверов (агенты сбора данных), другие агенты собирают с серверов SNMP (это было проще чем везде поднимать SNMP сервера), все это дело скидывается в базу данных и выводится на экран оператора через графический интерфейс, написанный на qt. Оператор не может инициировать воздействие на сервер (перегрузить его), это сделает сам агент по превышении определенного рода критических уставок.

Все хорошо и замечательно. Уже с одной станции есть справка о внедрении данной системы. Но самой диссертации НЕТ. Я ее очень медленно пишу. И вот сейчас я сижу и думаю почему я многие вещи (ну хотя бы агенты сбора данных) писал сам, а не использовал SNMP в полную его мощь. Сам же себе отвечаю что все по отдельности бы работало хорошо, но все вместе бы очень криво. Но блин обосновать умными словами не получается. И вообще мое мнение НЕ истина же в первой инстанции, смотрю на собственные алгоритмы в формате A1 на стене и думаю: "нафига я это все нагородил - надо было все на snmp делать", а потом понимаю что если бы сделал то тогда бы в случае некоторых внештатных ситуаций сервера не успели бы отказ выполнить и умерли в синем пламени. В тоже время кривить душой в диссере не хочется и получается возможно весь смысл моей работы состоит в том, чтобы либо:
а) показать и доказать что наилучшие показатели в плане безопасности и надежности достигаются при максимальном использовании SNMP и всяких приблуд для него;
б) либо опровергнуть это, показать альтернативные пути (по которым по сути пошел я).

Буду очень признателен за различную инфу по вопросу, где затрагиваются НЕДОСТАТКИ функциональности и надежности snmp протокола и/или невозможности его использовать.
Также вопрос к знающим людям - насколько надежно держать на агентах SNMP такие вещи как иниицирующие воздействия: т.е. в случае превышения критической уставки он ГАРАНТИРОВАННО успеет выключить устройство, или в данном случае имеет писать специальный обработчик.
Другими словами интересуют слабые места SNMP протокола. Если конечно они есть.

Также буду признателен за ссылки на аналогичные работы типа как оформить всю эту диагностику в виде математической модели. Может там я найду понимания своих ошибок. Но сейчас мат. моделями просто нет сил заниматься ибо только думаю сразу этот чертов snmp протокол всплывает. А система то работает.  

Спасибо.

RAID на дисках 2*250+2*120, !*! Alexey, (Хранилища данных) 11-Сен-07, 13:44  [ | | | ] [линейный вид] [смотреть все]
помогите подобрать наиболее приемлимый конфиг RAID имеется 2*250+2*120
без потери дискового пространства

  • LSI MegaRaid, !*! LILO (??), 12:25 , 13-Сен-07 (1)
    >помогите подобрать наиболее приемлимый конфиг RAID имеется 2*250+2*120
    >без потери дискового пространства

    LSI MegaRaid

    сообщить модератору +/ответить
  • два зеркала и lvm поверх них потери пространства будут, но данные обычно ценнее , !*! anonymous (??), 23:17 , 04-Янв-10 (3)
    >помогите подобрать наиболее приемлимый конфиг RAID имеется 2*250+2*120
    >без потери дискового пространства

    два зеркала и lvm поверх них.

    потери пространства будут, но данные обычно ценнее.  иначе зачем вам raid?

    сообщить модератору +/ответить
  • 1 берете и отрезаете от 250-к по два куска _заведомо_меньших по объему любого с, !*! sHaggY_caT (ok), 01:29 , 13-Янв-10 (7)
    >помогите подобрать наиболее приемлимый конфиг RAID имеется 2*250+2*120
    >без потери дискового пространства

    1. берете и отрезаете от 250-к по два куска _заведомо_меньших по объему любого существующего на рынке диска 120Gb (дело в том, что часто модели даже одного производителя с одной маркировкой объема имеют, на самом деле, различающийся объем даже на единицы гигабайт),

    2. отрезаете куски такого же объема от 120-к

    3. Из получившихся 4 одинаковых дисковых разделов делаете линуксовый mdraid5 (фейк-рейд контроллеры с их индусским кодом в ядре зло, а вот mdraid вполне промышленно надежен для применения на не самых отвественных системах с низким бюджетом)

    4. про маленькие куски 120-к забываете,

    5. Отрезаете по такому же принципу куски (такие же или чуть большего объема) от оставшихся кусков 250-к, про них забываете

    6. Из получившихся двух одинаковых кусков делаете зеркало (mdraid1), на него ставите операционную систему (root-раздел) и все, что требует наиболее интенсивного ввода-вывода, так как raid5 достаточно тормозной в сравнении с зеркалом, и, тем более, десятым рейдом (например, в redhat системах sqlite базу rpm, /var/log/, и т д). ОС (или, хотя бы, /boot с Grub) необходимо ставить на raid1, так как BIOS не знает что такое софтовое зеркало. Для установки загрузчика на оба диска, что бы система грузилась после смерти любого из них, можно сделать grub-install /dev/md1, где md1 Ваше зеркало(может быть другой номер).

    7. Покупаете один запасной диск объемом 250 гигов. В случае вылета диска 120 гигов ставите вместо него временно 250, в случае вылета 250-ки, разбиваете диск 250-ки так же, как и ее оставшегося в живых соседа (man sfdisk) и вставляете в два рейда две ее партиции (в пятый и первый), и сразу же идите в магазин и покупаете запасной диск нужного объема. 250-ку не на своем месте нужно сразу же поменять на 120-ку

    8. Настраиваете мониторинг mdraid (уведомление по почте), в сети куча инструкций, в т.ч. на опеннет

    9. Сверху raid1 и raid5, для более гибкого управления дисковым пространством, можно сделать два _отдельных_ _независимых_ VolumeGroup LVM

    10. Обязательно(!) покупаете UPS, и настраиваете автоотключение системы при пропадании питания

    11. И все равно, все это посоветовано без каких-либо гарантий и пр. серьезные данные лучше хранить на аппаратных контроллерах с обязательно батарейкой (без батарейки они бесполезный мусор), и в любом случае настроить бэкапы на другой массив.  
    ------

    остальным: схемы с lvm под mdraid(md из девайсов device-mapper) глючат и нормально не работают (так как необходим четкий порядок инициализации, почти всегда md инициализируется раньше LVM. копаться в стартовых сценариях себе дороже, все равно сломается после обновления, ставить в исключения пакетного менеджера тоже нельзя, так как часто стартовые сценарии входят в пакеты с торчащим наружу софтом, да и криво это)

    Такие схемы можно использовать только в случае крайней необходимости, и не с lvm-девайсами, а с lvm-девайсами поверх, например, iscsi-устройств с таргетами на разных банках с дисками, и писать, по-возможности, свой SysV сценарий, стартующий после lvm и md, но до прикладного софта, но это не случай топикстартера, ему чем проще тем лучше.


    Делать софтовые рейды на дисках неправильно, одно из преимуществ софтовых рейдов в том, что не нужно смотреть в HCL контроллера, что бы знать о совместимости прошивок и _совпадающей_геометрии_ дисков
    Софтовые рейды нужно делать на разделах/слайсах/labels

    Так как фря не умеет софтовый raid5 через geom, а стоит задача именно сохранить как можно больше объема, я и посоветовала не raid 1+0 (gmirror+gstripe) а Linux без упоминания альтернатив и mdraid.

    Так как с gvinum я не работала, но несколько знакомых, больше работающих с фрей (мне ближе Linux, хотя к фряхе тоже хорошо отношусь) отзывались о нем в негативном ключе, а gmiror5 еще нет в апстриме, я о нем тоже не упоминала (автор не высказал жестких религиозных предубеждений, а попросил работающее решение с четким ТТЗ)

    сообщить модератору +/ответить


HPC и ScientificLinux, !*! NickName, (Вычислительные кластеры) 22-Дек-09, 07:05  [ | | | ] [линейный вид] [смотреть все]
Добрый день.
Помогите пожалуйста начинающему:)
Форум читал, в гугл лазил:)
Если не трудно, распишите путь подъема бездискового вычислительного кластера под ScientificLinux54
Разжевывать не прошу. Прошу следующее:
Подымаешь DHCP сервер, TFTP сервер, NFS сервер ...
На данный момент дошел до процесса сборки ядра для нодов, и застрял. У меня часть нодов на ксеонах нихалемах e5530, часть будет на оптеронах, родитель-сервер на ксеоне e5450.
на родителе нет инфинибэнда, на нодах есть, и они через вольтер подключены друг к другу:)
Буду благодарен за любые ссылки.
балансировка исходящего трафика по загруженности канала, !*! Гость, (Увеличение производительнсти) 30-Дек-09, 03:21  [ | | | ] [линейный вид] [смотреть все]
Добрый день.
Стала передо мной такая задача: есть вэб-сервер под управлением FreeBSD 7.2, на нём 2 сетевые карты, обе смотрят в роутеры (разные). Иногда на этом сервере бывают большие всплески трафа, так что одного канала нехватает. Нужно настроить такую конфигурацию, что бы в таких случаех весь "избыточный" траф роутился на второй интерфейс.
Как я себе это представляю, нужно создать адресный пул в ПФ, сделать очередь с ограничением по полосе и написать какой-то тригер, что бы по достижении лимита запускался из ПФа и всем новым клиентам отдавал контент через второй интерфейс. Проблема в том, что я не знаю, как заставить ПФ роутить траф на сторону вместо того что б рубать все новые пакеты при заполнении очереди.
Посоветуйте, пожалуйста где почитать и правильно ли вобще это делать ПФом, может быть есть более "правильный" способ?
Limit CPU in Solaris, !*! usmt, (Solaris) 02-Дек-09, 06:14  [ | | | ] [линейный вид] [смотреть все]
Добрый День !!!

Есть сервер T2000 c Solaris на борту плюс установлен Checkpoint но беда в том что licences у Checkpoint только на 2 CPU (а у меня их 8) можно ли как нибудь уменьшить колличество CPU  в solaris.
p/s c ldoms and zones Checkpoint не работает

Заранее благодарен !!!

BACULA КОМАНДНАЯ СТРОКА, !*! buboni, (Хранилища данных) 23-Ноя-09, 11:32  [ | | | ] [линейный вид] [смотреть все]
Добрый день всем!
столкнулся вот с такой проблемкой использую bacula 3.0.3 на Centos

Все хорошо пишет на ленту бекапит )) При востановлении одного файла! я использую командную строку с такии параметрами

echo -e restore client=localhost.localdomain-fd select current file=/folder/myfile.tar done yes | bconsole -c /etc/bacula/bconsole.conf

Всё отлично достает файлик, и вот мне понадобилась доставать ВСЕ ФАЙЛЫ из конкретной папки

Ручками через консоль это можно проделать, но как проделать из командной строки увы не могу найти решения в мануале про это ни чего не написано может кто то сталкивался, подскажите плиз

Заранее благадарю

  • С точки зрения банальной эрудиции, current file folder done , !*! Andrey Mitrofanov (?), 13:24 , 23-Ноя-09 (1)
    >echo -e restore client=localhost.localdomain-fd select current file=/folder/myfile.tar done yes | bconsole -c
    >/etc/bacula/bconsole.conf
    >Ручками через консоль это можно проделать, но как проделать из командной строки
    >увы не могу найти решения в мануале про это ни чего
    >не написано может кто то сталкивался, подскажите плиз

    С точки зрения банальной эрудиции, '...current file="/folder/*" done...' ?...

    сообщить модератору +/ответить
Нужна топовая система. Максимальная производительность., !*! d_D_d, (Увеличение производительнсти) 06-Мрт-09, 11:34  [ | | | ] [линейный вид] [смотреть все]
Нужна топовая система с максимальной процессорной мощностью. Система нужна для математических рассчетов. ПО применяемое при этом - самописное, прекрасно работает на SMP и многоядерных процессорах, однако, к сожалению, не умеет работать в кластере (иначе бы не мучался с выбором платформы). И еще момент, система заточена под компилятор ICC от интела и при тестах на процессорах от AMD производительность резко падает.

И так, выбираю платформу для матвычислений. Из имеющихся на рынке на данный момент процессоров наиболее мощными мне кажутся intel i7 extreme и xeon x7460 который 6-и ядерный..

Подскажите пожалуйста

а) Могут ли процессоры intel i7 extreme работать в многопроцессорных конфигурациях? Если могут, то есть ли платы материнские под 2 и еще лучше под 4 процессора?
б) Есть ли 8-и ядерные варианты intel i7 extreme?
в) Что быстрее при прочих равных условиях, i7 extreme (с 4-я ядрами) или xeon x7460 и на сколько?
г) Какие материнские платы подходят для xeon x7460 (не серверные, лучше подешевле), чтоб туда можно было установить 2 а лучше 4 таких процессора.

Извините пожалуйста, за возможно тупые вопросы, однако я программист, но в железе разбираюсь не очень.

Буду очень благодарен - если просветите.



SLES 11 на HP DL320 G6, !*! shagg, (Серверные платформы) 13-Ноя-09, 16:11  [ | | | ] [линейный вид] [смотреть все]
Всем привет, вопрос такой:
При установке Suse Linux Enterprise Server на сервер HP Proliant DL320 G6 линукс не видит аппаратный RAID, а отображает два диска. Пробовал подключить образ дискеты с драйверами через iLO, в логе появляется запись
>> HP CISS Driver (v 4.6.20-21)

то есть драйвер загружается, но это ничего не меняет - так же отображаются 2 диска.
Как создать RAID аппаратными средствами сервера и корректно установить Linux?

Глюки IPMP на Solaris10 x86, !*! Dmitry, (Solaris) 16-Июл-09, 22:28  [ | | | ] [линейный вид] [смотреть все]
есть 2 машины с solaris10 x86 - one, two
есть 2 свича - switch1 switch2
one воткнут в switch1
two воткнут в switch1 (bnx0)и в swintch2(bnx1) и на этих интерфейсх настроен IPMP (link-based failure detection)

на two стоит ipfilter со state-ами

делаем ssh с one на two - через некоторое время сессия замирает и потом отваливается по timeout-у

происходит это в тот момент когда two шлет ARP ответ машине one со своим MAC-адресом, в ответ на broadcast ARP запрос своего MAC адреса от машины one.

ssh (как и любое другое tcp соединение) блочится из-за странной вещи, после того как мы отослали ARP ответ исходяшие пакеты на one начинают отсылаться с другого интерфейса из IPMP группы. То есть если до этого мы получали и принимали через bnx0, то будет отсылаться через bnx1, а в следующий раз опять и прием и передача будут через bnx0.

сам ARP ответ уходит через bnx0 и в нем стоит MAC адрес bnx0

причем если в тот момент когда пакеты физически отсылаются через bnx1 (видно по snoop)
two# route get one
говорит маршрут на one через interface: bnx0

да, bnx1 сконфигурен просто:
ifconfig bnx1 plumb
ifconfig bnx1 group twogrp up

адрес на нем 0.0.0.0 и маска 0xff000000

да, ipfilter не понимает переключения сессий с одного интерфейса не другой, это понятно, но с какой стати исходящий трафик меняет интерфейс после ARP ответа - вот вопрос.

  • Если оба интерфейса настроены Active Active, а не Active Standby, то исходящий т, !*! kolayshkin (??), 06:19 , 18-Июл-09 (1)
    Если оба интерфейса настроены Active/Active, а не Active/Standby, то исходящий трафик распараллеливается между всеми интерфейсами IPMP группы. Настрой второй интерфейс как StandBy и наверное настанет счастье.
    сообщить модератору +/ответить
  • ищи документ IPMP Rearchitecture High-Level Design Specification в Active-Acti, !*! Валерий (??), 11:01 , 12-Ноя-09 (3)
    ищи документ "IPMP Rearchitecture: High-Level Design Specification"

    в Active-Active IPMP может отвечать 1) с любого активного интерфейса 2) использовать в исходящем пакете любой из IP адресов в качестве Source address

    3.2 Outbound Load-Spreading
    Currently, the IP module load-spreads outbound traffic for each IP destination address across any
    active interface in the group, where active is defined as an interface that is not marked FAILED,
    INACTIVE, or OFFLINE, and has at least one UP address14. This will be unchanged in the new
    model.
    3.3 Source Address Selection
    Currently, if the application does not bind to a specific source address, the IP module will select
    a source address from the set of addresses in the IPMP group. The purpose of varying the source
    address is to affect inbound load-spreading. Specifically, in the current model, all addresses hosted
    on a given interface are associated with that interface’s hardware address. Thus, currently, if one
    connection uses a source address on ce0, and another a source address on ce1, then each connection
    will use a different interface for inbound traffic. It’s important to note that choice of outbound
    interface is independent from choice of source address. Thus, it is quite common to have
    a connection which sends packets through ce0, using a source address hosted on ce1, and thus
    receives the response on ce1 (this is necessary to spread outbound load when the set of available
    source addresses is smaller than the set of available outbound interfaces).

    сообщить модератору +/ответить
Мониторинг активности жесткого диска, !*! sasku, (Увеличение производительнсти) 11-Ноя-09, 11:21  [ | | | ] [линейный вид] [смотреть все]
Стоит удаленный сервер, периодически у него начинаются "тормоза": пинги через раз, сетевые соединения отваливаются (рядом стоит другой - без проблем).
Есть мысль - посмотреть активность жесткого диска.
Есть ли программы для отображения активности жесткого диска типа iptraf (эта для сети) ?
Желательно консольные, без окошек


ЗЫ: Linux Fedora 11
 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру