The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
bind 3 views, !*! tsolodov, (Разное) 12-Июл-10, 23:28  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день, столкнулся с проблемой:
есть задача организовать систему DNS. Ключевой вопрос: кто реализовывал DNS c 3-я viewшками и более? С 2-я вроде все понятно, но в инете не нашел пример с 3-я? Думаю будут трудности с организацией slave сервера. Кто имел опыт, отпишите пожалуйста!
Выбор сервера для шейпирования, !*! alex7788, (Увеличение производительнсти) 09-Июн-10, 07:08  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброе время суток. Вкратце опишу ситуацию. Есть сервер FreeBSD 8.0 для шейпинга абонентов настроеный бриджем который выполняет только функцию шейпирования DUMMYNET приблизительно до 2000 абонентов. Данный сервер(2 процессора на 4 головы CPU: Intel(R) Xeon(R) CPU E5310  @ 1.60GHz (1607.10-MHz 686-class CPU) 4гига оперативы) уже 3х годичной давности и при большом количестве соединений проходящих через его пайпы начинаются лаги с пингами. На данный момент я хочу заменить данный сервер на более мощный. Уважаемые Гуру, какой сервер Вы можете посоветовать под данные задачи? Стоит ли переходить на 64-разрядную архитектуру? Какие процессоры использовать? Сколько оперативной памяти туда нафаршировать чтобы поддерживала FreeBSD 8.0? Можно ли на базе сервера собрать шейпер-бридж на 10000 абонентов?

P.S. Бюджет до 10000$ заранее благодарен.



disk array для серверов DL380 G3, !*! nzambi, (Серверные платформы) 30-Май-10, 14:34  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть несколько DL380 G3, DL385 G1 серверов. Каждый сервер имеет минимум 4 диска по 72 ГБ. Хотелось бы установить какой-то дисковый массив для этих серверов и запихнуть все диски в этот массив. Только не знаю какой именно дисковый массив подойдет для этих серверов и как будет выглядеть подключение. Может у кого-то есть опыт. Поделитесь пожалуйста.
Зона Solaris не видит интернет., !*! Byte, (Solaris) 26-Май-10, 15:14  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть Solaris 10 сервер.На нем есть две сетевухи rtls1 (12.34.56.78) смотрит в интернет, rtls0 (192.168.33.1) смотрит в локалку.Трафик между интернетом и локалкой ходит с помощью nat:

# cat /etc/ipf/ipnat.conf
map rtls1 192.168.33.0/24 -> 12.34.56.78/32

Создаю на этом сервере зону с параметрами:
zonecfg:httpdredirect> add net
zonecfg:httpdredirect:net> set address=192.168.33.3
zonecfg:httpdredirect:net> set physical=rtls0
zonecfg:httpdredirect:net> set defroute=192.168.33.1
zonecfg:httpdredirect:net> end

В итоге получаю сетевой интерфейс:
rtls0:1: flags=1100843<UP,BROADCAST,RUNNING,MULTICAST,ROUTER,IPv4> mtu 1500 index 2
        zone httpdredirect
        inet 192.168.33.3 netmask ffffff00 broadcast 192.168.33.255

В локальной сети данная зона работает нормально (видит все компы в локалке, ее тоже видят), а вот в интернет в отличие от реальных компов локалки она ходить отказывается.Подскажите, что нужно подправить, чтобы зона ходила в интернет?

Хочу развернуть Wi Fi интернет в небольшом городе, !*! Vad21im, (Аппаратное обеспечение) 23-Май-10, 12:09  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день! Идея такая, поставить сервер с трафик инспектором или что то другое для билинга) от совета не откажусь) К серваку пойдет инет через оптику а вот от него хочу пустить через WiFi. Есть различные варианты на сайте http://www.o-t-s.ru но там манагеры молчат) Кто может мне помочь? Есть у кого какие идеи?  Я думаю ставить точки доступа на 400 клиентов с 4мя антенами и соединять с сервером их через ВайФай мост, так как в городе проблемы со светом и "витая пара" подводит очень. Какие решения для покрытия 34 квадратных километра сетью вайфай лучше использывать?!  Секционных домов в городе всего два района в основном частный сектор, есть много высотных промышленных зданий. Ну помогите пожалуйста;)
Tora-2.1.2 on RHEL5, !*! shohrat, (Oracle) 16-Май-10, 12:26  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Привет всем, скачал oracle-instantclient11.2-basic-11.2.0.1.0-1.x86_64.rpm и tora-2.1.2-1.el5.x86_64.rpm а где скачать qt4.4.3  На диске есть  qt4.4.2

[root@new Downloads]# rpm -q qt4
qt4-4.2.1-1
[root@new Downloads]# rpm -q qt4-devel
qt4-devel-4.2.1-1
[root@new Downloads]# rpm -q qt4-odbc
qt4-odbc-4.2.1-1

[root@new Downloads]# rpm -ihv tora-2.1.2-1.el5.x86_64.rpm
ошибка: Неудовлетворенные зависимости:
        qt4 >= 4.3.0 нужен для tora-2.1.2-1.el5.x86_64

XEN SERVER 5.5.0 upd2 глючит консоль в XenCenter, !*! XoXa, (Виртуализация) 13-Май-10, 15:32  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Собсна сабж.
Пытаюсь посмотреть на рабочий стол виртуалки или поставить виртуалку и окно либо обновляется секунд 20, либо вообще не кажет. Пинг до сервака <1 мс. При попытке войти на виртуалку через RDP все отлично!
Никто не сталкивался?
Миграция машин, !*! Grave, (Виртуализация) 13-Май-10, 14:30  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
День добрый, Уважаемое Сообщество.
Для тестирования виртуализации были выбраны KVM на Ubuntu 10.04 под управлением virt-manager

теперь конкретнее, все поставлео и настроено, машины работают нормально на обоих серверах и через бриджи смотрят в общую локалку. Но пытаюсь сделать миграцию и тут ступор

вирт манагер мне выпадает с окошком
Unable to migrate guest:
Traceback (most recent call last):
  File "/usr/share/virt-manager/virtManager/migrate.py", line 453, in _async_migrate
    vm.migrate(dstconn, migrate_uri, rate, live, secure)
  File "/usr/share/virt-manager/virtManager/domain.py", line 230, in migrate
    self._backend.migrate(destconn.vmm, flags, newname, interface, rate)
  File "/usr/lib/python2.6/dist-packages/libvirt.py", line 429, in migrate
    if ret is None:raise libvirtError('virDomainMigrate() failed', dom=self)
libvirtError: Unknown failure

после нажатия кнопки начать.

Миграция не идет не в одну сторону не в другую.
Машина лежит на samba шаре на одном из компов, голову уже сломал как сделать пока не знаю.

Может кто знает как можно сделать миграцию KVM машины иначе, через консоль или другой менеджер.

Интересна возможность объединять хост машины в единый пул ресурсов для гостевых машин, пока не нашел как это сделать, буду признателен если подскажите куда копать.

raid 1 на три HDD возможно ли?!, !*! kig, (Хранилища данных) 06-Май-10, 22:11  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
собственно сабжект возможны ли зеркала на три или более дисков
2 и более аппаратных RAID-контроллера в сиcтеме одновременно, !*! netserfer, (Хранилища данных) 07-Апр-10, 12:22  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Господа, а возможно ли на одной сиcтеме иметь 2 и более аппаратных RAID-контроллера?

Например, у меня есть 2-а Intel RAID SRCSASLS4I (http://www.nix.ru/autocatalog/controllers_intel/Intel_RAID_C...) 4-ёх канальных контроллера с интерфейсом PCI  Express 8x. Я хочу оба их вставить в материнскую плату, подклюичить к каждому контроллеру по 4-е SATA диска и забилдить RAID 5. В итоге у меня в системе  должно быть 2-а тома (на 2-ух аппаратных контроллерах соответственно).  Получится, как думаете?  У кого нибудь был подобный опыт? Собственно, меня интересует этот вопрос потому что 4-ёхканальники более чем в два раза дешевле 8-и канальников... А у меня задача построить недорогое отказоустойчивое хранилище.
Дисковый кеш (на запись), !*! IVB, (Увеличение производительнсти) 30-Мрт-10, 13:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть сервер БД (MySQL) с RAID-контроллером от Compaq, который принципиально не поддерживает кеширование записи. В связи с этим очень узким местом этой системы являются операции записи на диск.

Гугление по поводу I/O кеша в Linux не дало никакой информации (возможно, я гуглил не по тем ключевым словам...)

Поэтому обращаюсь к сообществу со следующими вопросами:

Умеет ли I/O cache в ядре Linux (речь о ядре 2.6) кешировать не только операции чтения, но и операции записи? Если умеет - как включить? И как посмотреть, включено ли оно?

Если не умеет - есть ли какой-то программный кеш, который позволит включить кеширование записи на диск в ОЗУ?

Бесперебойник на сервере достаточно надежный, поэтому вопросы возможных катаклизмов при отложенной записи не актуальны.

ОЗУ на сервере более, чем достаточно (32 гига). Практически весь этот объем занимает именно кеш.



Проектирование виртуальной системы, !*! Grave, (Виртуализация) 18-Мрт-10, 08:24  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброе время суток, уважаемое сообщество.
Задумалась наша компания о виртуализации, поскольку руководство об этих планах еще не знает, то можно все вначале спланировать, а потом уже сделать. Потому и решил спросить совета у тех, кто уже имеет опыт работы и виртуальными системами.
Задача. Виртуализировать десяток серверов на linux и windows(кака страшная, но приходится). Главная задача минимизировать время простоя при проблемах с железом. Потому ищется серьезное решение, с возможностью миграции виртуальных машин между физическими серверами.
Пока рассматриваются варианты от WmVare, CitriX и RHEL. Конечно же хочется использовать СПО, но можно и без этого.
Поделитесь опытом, кто что пробовал, чем не подошло, какие встретились подводные камни, обязательно ли потратиться на хорошее хранилище, как виртуализация сказалась на производительности.
Конвертирование видео на backend'е, !*! ciwl, (Кластеры) 10-Мрт-10, 13:36  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.

Необходимо организовать видеопортал. Одно из условий реализации - видео должно корвертироваться и хранится на backend'е, дабы не загружать сам вебсервер.

Какие есть обкатаные схемы реализации подобной задачи?



Самосборная СХД (OSOL, ZFS, Comstar), !*! m0ps, (Хранилища данных) 05-Мрт-10, 12:52  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
в связи с внедрением vmware vsphere остро встал вопрос об СХД. поскольку внедрение vsphere и так стоит немало, на нормальную СХД денег (пока) не дают. приходится выкручиваться, и тут на помощь хочу "позвать" OSOL + ZFS + Comstar.
подобрал следующее железо:
1*Supermicro SuperServer 6026C-3RF
1*Intel Xeon DP Quad-Core E5504 BX80602E5504
2*2Gb DDR3-1333 ECC Unbuffered Supermicro certified
2*250Gb WD2502ABYS
1*Kingston SNE125-S2/32GB, либо любой другой SLC SSD диск на 32 гига
5*1-TB WD1002FBYS

расклад винтов таков:
2*250 sata под операционку, 4*1000 sata raid1+0, 1*1000 hotspare, 1*32 ssd под ZIL

Вопрос: насколько сбалансирована данная конфигурация, не мало ли будет 4GB памяти, как opensolaris дружит с интегрированным sas контролером LSI 1086E?
имеет ли кто-то опыт построения СХД подобного рода, интересуют отзывы...



SNMP - мониторить циски, IBM BladeCenter E, IBM NAS, !*! XoXa, (Аппаратное обеспечение) 16-Фев-10, 12:57  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Кто-нибудь озадачивался данным вопросом?
С SNMP толком не знаком, но готов озадачиться вплотную так как работаю в дата-центре и тема крайне интересна в части мониторинга.
Пока нашел случайно вот такую тулзу - http://www.osp.ru/text/print/302/177490.html
Но выглядит она...Думаю есть какие-то более солидные решения.
Буду рад любому совету.
посоветуйте FS, !*! sluge, (Хранилища данных) 15-Фев-10, 22:13  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
под линукс нужна файловая система, которая может хранить в одном каталоге до миллиона файлов, и обеспечивать быстрый к ним доступ... что посоветуете?
nagios - для разных таймаутов оповещение на разные email, !*! Аноним, (Увеличение наджности) 15-Фев-10, 02:55  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день
требуется настроить наджиос для рассылки оповещения при таймауте 10 минут на емыло-1
при таймауте 30 минут - емыло-2

не создавая в виде дополнительного скрипта или двойного определения сервиса,а стандартными методами - возможно ли такое сделать.

Fastwell CPC303-01 и linux, !*! axel101, (Аппаратное обеспечение) 13-Фев-10, 22:59  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Последние несколько дней пытаюсь поставить debian на плату CPC303-01.
Проблема в том что на ней очень мало памяти (инсталлер прям об этом и говорит что памяти меньше чем минимум что мне надо).
Варианты загрузки для этой платы либо по сети, либо с compactFlash, либо с внутренней флехи, на которой стоит FDOS. При попытке поставить debian по сети на этапе скачивания компонентов инсталятора заполняется вся память и ядро начинает убивать процессы, после чего возникает kernel panic, мол памяти больше нет и убить нечего. Пытался подключить usb флеху и на ней сделать своп, процесс вроде пошёл, флеха моргает, своп используется, но потом та же история, только чуть позже (что странно, я пробовал и 128 мегов своп и 512 и даже гиг).
Попробовал таким же образом поставить centos, он тоже говорит что памяти меньше чем надо и в отличие от дебиана после этой надписи сразу перегружается.

Теперь вопрос: Какие вообще дистрибутивы используются на подобных промышленных компьютерах, и есть ли тематические сайты, форумы (желательно рускоязычные)?

Как мигрировать виртуальные машины?, !*! sheff.artx, (Виртуализация) 11-Фев-10, 16:58  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть ESXi4u1-хост с Licensed Features -> Product Features -> Storage VMotion. По iSCSI, к нему подцеплены два хранилища. На одном развернуты виртуальные машины windows и linux. Как и каким софтом переместить виртуальные машины с одной хранилки на другую? В установленном сейчас vSphere Client ничего подобного не нашел... Подскажите, кто знает...

Как задействовать память, !*! bassmaster, (Увеличение производительнсти) 09-Фев-10, 14:35  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
freebsd# dmesg | grep memory
real memory  = 8589934592 (8192 MB)
avail memory = 3144896512 (2999 MB)

На сервере под FreeBSD-8.0 стоит 8 GB оперативной памяти. Хотелось бы задействовать всю, а не только 3 Gb. Пожайлуста подскажите как это сделать.

ESXi + SNMP + temperature, !*! sheff.artx, (Виртуализация) 05-Фев-10, 17:29  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Подскажите, кто знает, как мониторить температуру сервера под ESXi?

sun 280r+adaptec 2130s+hp ultrium 232, !*! avator, (Серверные платформы) 03-Фев-10, 20:16  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Привет всем:-)
не могу увидеть стример???
ls -l /dev/rmt/
total 0

исходные данные:
......
Release: 5.10
Kernel architecture: sun4u
Application architecture: sparc
Hardware provider: Sun_Microsystems
Domain:
Kernel version: SunOS 5.10 Generic_142900-03

cfgadm -al
Ap_Id                          Type         Receptacle   Occupant     Condition
c0                             scsi-bus     connected    configured   unknown
c0::dsk/c0t6d0                 CD-ROM       connected    configured   unknown
c1                             fc-private   connected    configured   unknown
c1::21000004cfc9def3           disk         connected    configured   unknown
c1::500000e0102f4dd1           disk         connected    configured   unknown
c3                             scsi-bus     connected    unconfigured unknown
c4                             fc-fabric    connected    configured   unknown
c4::500601603a601ec7           disk         connected    configured   unknown
c5                             scsi-bus     connected    unconfigured unknown
.....

/opt/StorMan/arcconf getconfig 1 ad
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller Status                        : Optimal
   Channel description                      : SCSI
   Controller Model                         : Adaptec 2130S
   Controller Serial Number                 : 16F8F9
   Installed memory                         : 256 MB
   Copyback                                 : Disabled
   Background consistency check             : Enabled
   Automatic Failover                       : Enabled
   Defunct disk drive count                 : 0
   Logical devices/Failed/Degraded          : 0/0/0
   --------------------------------------------------------
   Controller Version Information
   --------------------------------------------------------
   BIOS                                     : 5.2-0 (15611)
   Firmware                                 : 5.2-0 (15611)
   Driver                                   : 2.2-2 (1)
   Boot Flash                               : 5.2-0 (15611)
   --------------------------------------------------------
   Controller Battery Information
   --------------------------------------------------------
   Status                                   : Not Installed


/opt/StorMan/arcconf getconfig 1 pd
Controllers found: 1
----------------------------------------------------------------------
Physical Device information
----------------------------------------------------------------------
   Channel #0:
      Transfer Speed                        : Ultra320
      Initiator at SCSI ID 7
      Device #3
         Device is a Tape drive
         State                              : Standby
         Supported                          : Yes
         Transfer Speed                     : Ultra160
         Reported Channel,Device            : 0,3
         Vendor                             : HP
         Model                              : Ultrium 1-SCSI
         Firmware                           : P53D

Что посоветуете?
П.С. дядя гугл не гуглит:-(

vmware, !*! har, (Виртуализация) 29-Янв-10, 09:09  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Приветствую
подскажите как можно перенести действующий сервер linux в vmware esx server, т.е. виртуализировать его

Заранее благодарен

Проблемы с нагрузкой на CPU, !*! 0nik, (Увеличение производительнсти) 28-Янв-10, 01:16  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Помогите решить проблему, руки опускаются (

Есть сервер
1 x CPU  E5530  @ 2.40GHz типа 8 ядер
мамка s5520ch
Linux bgp 2.6.26-2-amd64 #1 SMP Thu Nov 5 02:23:12 UTC 2009 x86_64 GNU/Linux

Сервер используется для роутинга, на нем поднято только bgp, рулит сетку 0/22.
Сервер гоняет через себя более 200 тыс пакетов сек в основном UDP
Загрузка по трафику около 150mbit исхода и 60mbit входящего.

Суть проблемы в том что при просмотре командой htop, 2 ядра из 8 показанных загружены на 100% остальные курят, самое интересное в том что я не могу понять что именно грузит.
Htop весь в красном цвете.

top
Cpu0  :  0.0%us,  0.0%sy,  0.0%ni,100.0%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Cpu1  :  0.0%us,  0.0%sy,  0.0%ni,100.0%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Cpu2  :  0.0%us,  0.0%sy,  0.0%ni,100.0%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Cpu3  :  0.0%us,  0.0%sy,  0.0%ni, 81.7%id,  0.0%wa, 16.7%hi,  1.7%si,  0.0%st
Cpu4  :  0.0%us,  0.0%sy,  0.0%ni, 47.7%id,  0.0%wa,  3.0%hi, 49.3%si,  0.0%st
Cpu5  :  0.0%us,  0.0%sy,  0.0%ni, 52.2%id,  0.0%wa,  2.7%hi, 45.2%si,  0.0%st
Cpu6  :  0.0%us,  0.0%sy,  0.0%ni, 87.3%id,  0.0%wa, 10.0%hi,  2.7%si,  0.0%st
Cpu7  :  0.0%us,  0.0%sy,  0.0%ni, 99.6%id,  0.4%wa,  0.0%hi,  0.0%si,  0.0%st
Mem:   2000528k total,   575500k used,  1425028k free,   142656k buffers
Swap:  5855652k total,        0k used,  5855652k free,   113952k cached

Cpu4 49.3%si  и Cpu5 45.2%si в дневное время упираются в 100%, пинг начинает прыгать, увеличивается с 1mc до 30mc и начинается попа ((

Подскажите как можно решить проблему, распределить нагрузку cpu4;cpu5 по всем ядрам

На сколько надежны DAS MD1000?, !*! alexrn, (Хранилища данных) 25-Янв-10, 12:24  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Привет.

Недавно столкнулся с ужасной проблемой. Стоял сервак с uptime в 1 год, в датацентре полетела UPS система и сервак ребутнулся в связи с чем потерял немало данных. Сейчас планирую к серверу купить решение построенной с DAS (Direct Attached storage)Dell MD1000. Засунуть туда несколько винтов с RAID10. Возник такой вопрос. На сколько надежен этот DAS в случае того же самого что произошло со мной недавно? Выдержит ли сам DAS такое падаение и т.п.? ПРосто ниразу не сталкивался с такими железками еще и не знаю на сколько они надежны.

Заранее всем спаибо!



Сетевые настройки во FreeBSD 8, !*! deletant, (Разное) 23-Янв-10, 15:43  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Тестил скорость утилитой iperf. Когда на машине стоит freebsd, показует скорость 600Mbit/s,  а когда ubuntu - 960Mbit/s. В чем может быть проблема?
Nagios  SMS, !*! beaver33, (Увеличение наджности) 22-Янв-10, 10:01  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Привет, Всем
Вопрос по поводу отсылки SMS сообщения от NAGIOS.
На почту приходит, а вот на мою мобилу в виде sms - нет. Что очень огорчает.
Краткое содержание системы.
1.    OS Linux CentOS.
2.    Nagois nagios-2.12-6.el5
3.    gnokii-0.6.27-2.el5

Nagos стартует, на почту шлёт алерты, (сделал 2 тестовых хоста, загнал их в down и теперь тестирую) в логах видно, что nagios шлёт рассылку
===============================================================
Jan 22 09:30:14 CentOS nagios: HOST NOTIFICATION: nagios-admin;PODMENKA2;DOWN;host-notify-by-sms;CRITICAL - Host Unreachable (172.16.2.172)
Jan 22 09:30:14 CentOS nagios: HOST NOTIFICATION: nagios-admin;PODMENKA2;DOWN;host-notify-by-email;CRITICAL - Host Unreachable (172.16.2.172)
Jan 22 09:31:31 CentOS nagios: HOST NOTIFICATION: nagios-admin;3COM;DOWN;host-notify-by-sms;CRITICAL - Host Unreachable (172.16.5.219)
Jan 22 09:31:31 CentOS nagios: HOST NOTIFICATION: nagios-admin;3COM;DOWN;host-notify-by-email;CRITICAL - Host Unreachable (172.16.5.219)

Что касается Gnokii, то с ней тоже - полный порядок
gnokii –identify

Manufacturer : SIEMENS
Model        : MC75
Product name : MC75
Revision     : REVISION 04.001
Serial device: closing device

Вот настройки nagios, по поводу отсылки SMS

Commands.cfg

define command {
    command_name host-notify-by-sms
    command_line    /usr/bin/printf "%b" "Notification Type: $NOTIFICATIONTYPE$\nHost: $HOSTNAME$\nState: $HOSTSTATE$\nAddress: $HOSTADDRESS$\nInfo: $HOSTOUTPUT$\n\nDate/Time: $LONGDATETIME$\n" | /usr/bin/gnokii --sendsms + мой номер
}

define command {
    command_name notify-by-sms
    command_line    /usr/bin/printf "%b" "Notification Type: $NOTIFICATIONTYPE$\n\nService: $SERVICEDESC$\nHost: $HOSTALIAS$\nAddress: $HOSTADDRESS$\nState: $SERVICESTATE$\n\nDate/Time: $LONGDATETIME$\n\nAdditional Info:\n\n$SERVICEOUTPUT$" | /usr/bin/gnokii --sendsms + мой номер
}

Localhost.cfg

define contact{
    contact_name nagios-admin
    alias Nagios Admin
    service_notification_period 24x7
    host_notification_period 24x7
    service_notification_options w,u,c,r
    host_notification_options d,r
    service_notification_commands notify-by-email,notify-by-sms
    host_notification_commands host-notify-by-email,host-notify-by-sms
    email моё мыло
    pager + мой номер
    }

Если я даю команду системе

# /usr/bin/printf "%b" "Notification Type: $NOTIFICATIONTYPE$\nHost: $HOSTSTATE$\nAddress: $HOSTADDRESS$\nInfo: $HOSTOUTPUT$\n\nDate/Time: $LONGDATETIME$\n" | /usr/bin/gnokii --sendsms +мой номер

То получаю SMS на мой телефон
Notification
Type: $
Host: $
Address: $
Info: $
Date/Time: $

Но это из командной строки и ручонками. А вот nagios – шлёт только на почту.
Что нужно подправить, чтобы я алерты получал на телефон в виде SMS?
Если кто-нибудь воевал с подобным – подскажите.
Спасибо, извиняюсь за оторванное время.




балансировка исходящего трафика по загруженности канала, !*! Гость, (Увеличение производительнсти) 30-Дек-09, 03:21  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.
Стала передо мной такая задача: есть вэб-сервер под управлением FreeBSD 7.2, на нём 2 сетевые карты, обе смотрят в роутеры (разные). Иногда на этом сервере бывают большие всплески трафа, так что одного канала нехватает. Нужно настроить такую конфигурацию, что бы в таких случаех весь "избыточный" траф роутился на второй интерфейс.
Как я себе это представляю, нужно создать адресный пул в ПФ, сделать очередь с ограничением по полосе и написать какой-то тригер, что бы по достижении лимита запускался из ПФа и всем новым клиентам отдавал контент через второй интерфейс. Проблема в том, что я не знаю, как заставить ПФ роутить траф на сторону вместо того что б рубать все новые пакеты при заполнении очереди.
Посоветуйте, пожалуйста где почитать и правильно ли вобще это делать ПФом, может быть есть более "правильный" способ?
HPC и ScientificLinux, !*! NickName, (Вычислительные кластеры) 22-Дек-09, 07:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день.
Помогите пожалуйста начинающему:)
Форум читал, в гугл лазил:)
Если не трудно, распишите путь подъема бездискового вычислительного кластера под ScientificLinux54
Разжевывать не прошу. Прошу следующее:
Подымаешь DHCP сервер, TFTP сервер, NFS сервер ...
На данный момент дошел до процесса сборки ядра для нодов, и застрял. У меня часть нодов на ксеонах нихалемах e5530, часть будет на оптеронах, родитель-сервер на ксеоне e5450.
на родителе нет инфинибэнда, на нодах есть, и они через вольтер подключены друг к другу:)
Буду благодарен за любые ссылки.
Диссертация на тему мониторинга и диагностики техн. средств, !*! demiurg, (Увеличение наджности) 16-Дек-09, 19:28  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!

Вот уже второй год пишу диссертацию на тему "Увеличение надежности и безопасности техн. средств за счет разработки и внедрения программного обеспечения контроля состояний оборудования". Естественно тема диссертации выглядит подругому. Это я так упростил.

На самом деле все просто:  есть сервера на закрытом объекте (атомная станция), на всех серверах linux + еще различные устройства snmp + еще различные датчики, которые через snmp не загонишь. Так вот я написал агенты, которые собирают данные с серверов (агенты сбора данных), другие агенты собирают с серверов SNMP (это было проще чем везде поднимать SNMP сервера), все это дело скидывается в базу данных и выводится на экран оператора через графический интерфейс, написанный на qt. Оператор не может инициировать воздействие на сервер (перегрузить его), это сделает сам агент по превышении определенного рода критических уставок.

Все хорошо и замечательно. Уже с одной станции есть справка о внедрении данной системы. Но самой диссертации НЕТ. Я ее очень медленно пишу. И вот сейчас я сижу и думаю почему я многие вещи (ну хотя бы агенты сбора данных) писал сам, а не использовал SNMP в полную его мощь. Сам же себе отвечаю что все по отдельности бы работало хорошо, но все вместе бы очень криво. Но блин обосновать умными словами не получается. И вообще мое мнение НЕ истина же в первой инстанции, смотрю на собственные алгоритмы в формате A1 на стене и думаю: "нафига я это все нагородил - надо было все на snmp делать", а потом понимаю что если бы сделал то тогда бы в случае некоторых внештатных ситуаций сервера не успели бы отказ выполнить и умерли в синем пламени. В тоже время кривить душой в диссере не хочется и получается возможно весь смысл моей работы состоит в том, чтобы либо:
а) показать и доказать что наилучшие показатели в плане безопасности и надежности достигаются при максимальном использовании SNMP и всяких приблуд для него;
б) либо опровергнуть это, показать альтернативные пути (по которым по сути пошел я).

Буду очень признателен за различную инфу по вопросу, где затрагиваются НЕДОСТАТКИ функциональности и надежности snmp протокола и/или невозможности его использовать.
Также вопрос к знающим людям - насколько надежно держать на агентах SNMP такие вещи как иниицирующие воздействия: т.е. в случае превышения критической уставки он ГАРАНТИРОВАННО успеет выключить устройство, или в данном случае имеет писать специальный обработчик.
Другими словами интересуют слабые места SNMP протокола. Если конечно они есть.

Также буду признателен за ссылки на аналогичные работы типа как оформить всю эту диагностику в виде математической модели. Может там я найду понимания своих ошибок. Но сейчас мат. моделями просто нет сил заниматься ибо только думаю сразу этот чертов snmp протокол всплывает. А система то работает.  

Спасибо.

 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру