The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Форум Оптимизация и Промышленные системы
Защита электропитания дома/квартиры., !*! Аноним, (Увеличение наджности) 15-Окт-23, 14:08  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Было: сетевые фильтры с заземлением к трубам воды и отопления, какой-то автомат на входе.

Начали в магазине внизу трубы менять и электросваркой варить... Лампочки иногда тускнеют, комп перезагружается. Отключил заземление ко всем трубам! Случайно перерубил провод сетевого фильтра, коротнуло и выбило автомат в электро-щитке.

А как правильно организовать защиту электропитания на 10-15 kW? Интересуют конкретные советы с моделями оборудования. Требование компактность, безшумность, надёжность и цена.

Наверно генератор на балкон и стабилизатор не интересуют, надо защитится от: короткого замыкания на чужой ноль, замыкания нуля и фазы, обрыва нуля, пониженного и повышенного напряжения, перегрузки >10-15 kW, очень больших электрических импульсов от ударов молний, всяких высокочастотных помех.

Интересуют однофазные на 220 V и 50 Hz:

1. Дифференциальное реле 10-15 kW на DIN-рейку.
2. Дифференциальный автомат 10-15 kW на DIN-рейку.
3. Отсекатель низкого и высокого напряжения (релейный контроль напряжения (РКН)) 10-15 kW на DIN-рейку.
4. Сетевой фильтр 2-4 kW
5. UPS на 500-1000 W, желательно с возможностью подключения внешних аккумуляторов от автомобиля.



Поиск файлов в распределенных P2P сетях, !*! Novo22, (Разное) 23-Ноя-22, 04:03  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Приветствую.

Возник вопрос относительно поисковых возможностей у существующих распределенных p2p сетей. Общая задача связана с поиском файлов даже не по их системным параметрам (имена, расширения, даты и тп),а по мета-тегам, присваиваемым пользователями и записываемым внутрь самих файлов (в основном, картинки в jpg и png с IPTC/MWG тегами). Искать по мета-тегам локально - не проблема. Искать по мета-тегам на удаленных компьютерах - уже вопрос как (проблема ещё в том, что сами мета-теги у файлов могут меняться, а следовательно и хэш файлов пересчитывается). В целом, специфика содержимого файлов и их количество таковы, что уже понятно, что для обеспечения анонимного обмена между пользователями нужно P2P решение.

Например, в тех же торрентовых сетях (в отличие от древнего eMule - не знаю, он ещё жив?) поиск в принципе не поддерживается, поэтому для файлообмена насоздавали кучу сайтов-посредников-трекеров. Про поиск торрентов по мета-тегам файлов уже молчу.

Почитал про реализацию поиска в той же IPFS, на Гитхабе у них проект IPFS-Search, кажется, пока сыроватый.  Хотя выбор распределенных файловых систем довольно широк:
https://en.wikipedia.org/wiki/Comparison_of_distributed_file...

Кто-то знаком с темой реализации поиска в распределенных P2P, чтобы подсказать что-то полезное?

Заранее благодарю.

Lvm без матрешки, pv over lvs, ну как?, !*! Kirikekeks, (Хранилища данных) 14-Ноя-22, 00:33  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброй консоли.
Есть способ, описанный подробно в статье habr.com
https://habr.com/ru/post/492834/. Я эту статью грызу, кусаю, лижу, курю и тщетно. Думаю до посинения, без просветления. Сжальтесь, пожалуйста.
Вот райд. Один pv, один vg, 1,2Тб. Хочу его нарезать, кусочек под кэш сюда, кусочек под кэш туда, вот тут почта, а этому lxc, а этот под облако. А вот эти два под тесты. Вот выше в статье все получается. Моя же Центось хочет работать с "реальными" девайсами, и кушать lvs-cache, как новый pv не желает категорически. А как кэшировать  hdd, если целый рэйд очень жирно, а lvs кэширющего устройства должен быть в одной группе томов кэшируемого? Как Чайфы + Жванецкий,"Ээ?эй есть ещё сдесь хоть кто-то, умнее меняяяя??" Буду очень признателен.
Запросы в транзакции MariaDB выполняются не смотря на ошибки., !*! CHIM, (Другие СУБД) 11-Авг-22, 15:20  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго времени суток.
Уважаемые знатоки, прошу совета!
Сервер MariaDB 10.5, пишу простенький запрос с транзакцией где данные копируются из одной таблицы в другую и помечаются как архивные, затем удаляются из первоисточника.
Суть в том, что даже работая с одной таблицей, поочерёдно выполняется код и не смотря на то, что есть попытка обновить несуществующую строку, транзакция не отменяется, а выполняется в полном объёме, что до попытки обновления, что после.

SET autocommit = OFF;
START TRANSACTION;
DELETE FROM test2 WHERE pnum=11;/*удаляем на всякий случай*/
INSERT INTO test2(fam,pnum) (SELECT fam,pnum FROM test1 WHERE id =334);/*из test1 копируем строку в test2*/
DELETE FROM test2 WHERE pnum=11;/*удаляем копируемую строку*/
UPDATE test2 SET location='arhiv' WHERE pnum=11;/*пытаемся обновить несуществующую строку*/
INSERT INTO test2(fam,pnum) (SELECT fam,pnum FROM test1 WHERE id =334);/*снова вставляем данную строку*/
COMMIT;
SELECT * FROM test2 WHERE pnum=11;

Не могу понять почему транзакция не отменяет изменения если в одном из запросов ошибка?

Sun Blade 1500 восстановление Solaris 5.10, !*! User1981, (Solaris) 15-Июл-22, 13:42  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброе время суток! Уважаемые форумчане, прошу сильно не пинать и отнестись с пониманием. Я занимаюсь ремонтом и обслуживанием различных автоматизированных систем, могу в ПЛК программу разобрать, но в Си ассемблер и т.п. не лезу. Попал ко мне Sun Blade 1500, на нем HMI асфальтного завода, при загрузке пишет SunOS Release 5.10 Version Generic_118833-17 64-bit. Изначально ругался на поврежденный c0t0d0s0, по причине чужих кривых ручек (hdd к Windows подключить хотели), ругается на /platform/sun4u/kernel/sparcv9/genunix. На этом заводе уже меняли компьютер и hdd с первого компа сейчас у меня. Так вот с этого винчестера  Solaris загружается, но после многократных миганий экраном пишет The X-server can not be started on display : 0 . . .
Fsck ругается на c0t0d0s1 и s6 говорит повреждённые суперблоки. На втором hdd fsck ведёт себя также. Скачал Solaris 5.10 Release 147114,установил на другой hdd, купил  ещё один жёсткий диск с ёмкостью равной системным. Клонирование первого диска и последующий fsck даёт те же ошибки. По fsdb читал Ман на англ, но не понял как его использовать. Компьютер заказчик пытается заказать, но в нашем регионе это большой геморрой.
Помогите вернуть hmi в рабочее состояние.


Основное сообщение, !*! vigreen, (Разное) 22-Фев-22, 05:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
в связи с внедрением vmware vsphere остро встал вопрос об СХД. поскольку внедрение vsphere и так стоит немало, на нормальную СХД денег (пока) не дают. приходится выкручиваться, и тут на помощь хочу "позвать" OSOL + ZFS + Comstar.
подобрал следующее железо:
1*Supermicro SuperServer 6026C-3RF
1*Intel Xeon DP Quad-Core E5504 BX80602E5504
2*2Gb DDR3-1333 ECC Unbuffered Supermicro certified
2*250Gb WD2502ABYS
1*Kingston SNE125-S2/32GB, либо любой другой SLC SSD диск на 32 гига
5*1-TB WD1002FBYS
расклад винтов таков:
2*250 sata под операционку, 4*1000 sata raid1+0, 1*1000 hotspare, 1*32 ssd под ZIL

Вопрос: насколько сбалансирована данная конфигурация, не мало ли будет 4GB памяти, как opensolaris дружит с интегрированным sas контролером LSI 1086E?
имеет ли кто-то опыт построения СХД подобного рода, интересуют отзывы...

BIOS у Fujitsu сервера не видит SATA диск в BIOS для загрузки, !*! s.stepanov, (Серверные платформы) 07-Апр-21, 10:15  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго времени суток!

Подскажите пожалуйста в чём может быть причина того что BIOS сервера не видит SATA диск подключенный к нему без RAID контроллера (напрямую к материнской плате).

Дано: сервер Fujitsu без дисков, но с RAID контроллером и разъёмами для SAS/SATA дисков. К сожалению там стоят только заглушки и у меня нет "адаптера" для дисков. Поэтому я хочу для начала попробовать поставить ОС на диск подключенный через SATA. Я нашёл один свободный разъём.

За грузился с DVD и установщик без проблем обнаружил диск и установил систему (Ubuntu). Но после перезагрузки система не была обнаружена BIOSом. Я полез в BIOS и увидел что там в списке устройств для загрузки только DVD привод и PCI устройство (либо сетевая карта для PXE либо RAID). Попробовал поменять различные настройки в BIOS (практически наугад), но диск так и не появился в списке. Пробовал перезагружать после изменения настроек.

Фото со списком устройств для загрузки: https://www.freedev.world/img/bios-foto.jpg

Заранее благодарю за помощь!

linux для матем задач, исп только целочисл ариф и многоПамяти, !*! ustas1, (Увеличение производительнсти) 22-Фев-21, 14:01  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
какой linux для матем задач, исп только целочисл ариф и многоПамяти, возможно вычисления на неск ядрах процессоров
https://github.com/eprover/eprover
https://github.com/vprover/vampire
https://github.com/ai4reason/enigmatic

q137@protonmail.com


Проблема iKVM на iLO100, !*! nops, (Серверные платформы) 06-Янв-21, 11:54  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Приветствую коллеги.
Наблюдаю такую проблему.
Сервер HP ML350G6, ровно такая же проблема наблюдалась на DL160G5.
Полюкчаюсь к iKVM, или как правильнее Remote KVM в подключается, нормально, но вот вижу такую картинку: https://ibb.co/kcH0wbn
То есть содержимое экрана я не вижу и как будто оно максимально сжато в верхнем левом углу. У меня такое однажды было, когда-то давно но как-то я что-то ткнул и все стало нормально, сейчас же не могу сделать так, чтобы отображался экран.
Помогите советом, что с этим можно делать? Сервак резервный, но хотелось бы обновить на нем ОС не выезжая в "датацентр"
Можно ли создавать множество контекстов для библиотеки?, !*! alexraynepe196, (Увеличение масштабируемости) 12-Окт-20, 12:50  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
для native библиотеки в жав-приложении надо делать множество "инстансов" - запускать библиотечный код в наборе контекстов.
Поясню что происходит: библиотека эмулирует некий объект. Жава-приложение хочет работать с мнодеством независимых одинаковых объектов.
В настоящее время для переключения контекста тупо из внешнего буфера облавсть данных библиотеки копируется  целиком, и обратно сохраняется.

Есть ли знатоки, знающие как можно создать множество контекстов, и переключать их без копирования?

Насколько я понимаю, в норме разделяемые библиотеки линкуются в контексте приложения. Множество раз прилинковать одну библиотеку с разными контекстами в рдно приложение нельзя?

Oracle Fatal NI connect error 12560, !*! Антон, (Oracle) 24-Июл-20, 17:30  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день!
Есть субд oracle 12 window server.
Все настроено  работает.

Но периодичнски  Валятся сообщения в log.xml

ns main err code: 12560

TNS-12560: TNS:protocol adapter error

Fatal NI connect error 12560, connecting to:

(LOCAL=NO)

И так пока не сделаешь рестарт сервисов. Работает так почти сутки. Потом снова рестат нужен. Сделал это через планировщик заданий.


В чем может быть проблема?
Сетевая карта работает.

Есть в оракле ограничения на кол‐во одновременных подключений? Может это из-за не разрывных соединений.

С уважением

Настройка приоритетов для ipsec-туннелей на Amazon, !*! cr1m, (Виртуализация) 10-Июн-20, 10:18  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте, есть виртуальные сервера на Амазоне, с маршрутизатора до него строится пара ipsec-туннелей. Однако есть еще с одного резервного маршрутизатора пара туннелей, если работают все 4 начинаются потери до амазоновских хостов. Со стороны амазона можно ли как-то приоритет задать на эти туннели? Может кто сталкивался?
Вопрос к знатокам vCenter и DRS, !*! spanjokus, (Виртуализация) 30-Май-20, 17:07  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день, коллеги! Такой вопрос у меня есть DRS кластер на ESXI 6.5, по какой-то причине если я включаю виртуальную машину, они стартует все время на одном и том же хосте, хотя он может быть в этот момент и не иметь максимально свободного количества ресурсов, я читал, что можно с помощью правил DRS (http://pyatilistnik.org/kak-ogranichit-chislo-virtualnyih-ma.../), как ограничивать количество виртуальных машин на сервере, а как все же задать чтобы новая VM запускалась на самом свободном? Это очень неудобно и уже подбешивает

У меня сейчас выставлен режим "partially automated", как я понял это когда виртуальная машина включена, DRS разместит ее на наиболее подходящем хосте без запроса пользователя. Если кластер DRS становится несбалансированным, DRS отобразит рекомендации по миграции виртуальной машины.

Мне в других ресурсах сказали, что нужно выставить полностью автоматический и будет счастье, но мне этот режим не подходит. Еще вопрос, где вообще увидеть почему vcenter выбирает именно этот хост, а не другой?

Мои настройки: https://ibb.co/YDvzdQ8 https://ibb.co/Yj7S71V

Тонкости замены SSD диска в RAID, !*! userovich, (Хранилища данных) 28-Фев-20, 11:14  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Думаю собрать raid6 или raid10 на ssd дисках в synology или qnap. Вопрос - как ssd ведут себя если что-то с диском в массиве пошло не так? SSD же выходят из строя в момент, как ребилд происходит при замене диска на новый, глюки какие или особенности? Например, обычные hdd ребилдятся долго. А как ssd? За час-два 4 Тб пережует? Короче, если возможно, поделитесь мнением/советом, с чем могу столкнуться? А то бабок стоит и не охота на детские болячки наступать.
Как создать crosscompiled репозиторий для NETBSD?, !*! IdeaFix, (Разное) 26-Фев-20, 20:26  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Собственно сабж. Хочется построить свой бинарный репозиторий пакетов под NetBSD.

Мотивация простая - NetBSD, одна из немногих ОС, которая (не для продакшена) может быть установлена в очень похожей конфигурации (набор системного и прикладного ПО, тестов) на широкий спектр архитектур. Т.е. фактически, можно в лоб сравнить ARM, MIPS, SPARC, SPARC64, ALPHA, HPPA, ITANIUM ну и эти ваши пентиумы в 7zip. Конечно я упрощаю, но задачка примерно такая.

Скорость сборки пакетов на хосте Sparc Classic (или raspberry pi) не доставляет. Совсем. В готовых репозиториях многие пакеты по каким то причинам отсутствуют, а порой, отсутствуют целые репозитории под конкретные версии NetBSD для конкретных архитектур. К разработчикам претензий нет.. понятно что в третьей декаде 21-го века SPARC32 нужен чуть более чем никому, но.. вот переводы фаерфокса на все языки в репозиториях есть (потому, что собрались!) а фаерфокса нет (потому, что не собрался!).

Ну а теперь собственно вопрос. Существует ли что-то, более подробное чем это https://wiki.netbsd.org/tutorials/pkgsrc/pbulk/ для описания решения задачи? Естественно, собирать хочется на мощной X86 машине с 64 тредами, 256 памяти и быстрым диском под одну или несколько НЕ X86 архитектур. Публиковаться всё это будет локально по FTP, поэтому момент публикации не очень важен, важна сборка. Как это всё наладить с минимумом неудачных попыток?

badblocks на рейде, !*! Анонимко, (Хранилища данных) 31-Дек-19, 02:52  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Развернул Ovirt 4.3 и в процессе эксплуатации стали бится образы виртуалок.
Появились сообщения вида
kernel: blk_update_request: I/O error, dev sda, sector 205392128

1) RAID 1 был собран недавно на свежих энтерпрайз дисках, а сами диски вне рейда и по инфе smartctl -a и smtartctl -t long и badblocks тесты успешно проходят.
2) Проверка рейда на консинстентность силами рейд контроллера(PERC H200) проходит без ошибок.

Самое занятное чего я не ожидал и что мне не понятно:

badblocks показывает прямо на рейде /dev/sda 148 битых секторов!
Повторная проверка badblocks после холодного ребута сервера показывает те же сбойные сектора.

Также в процессе проверки badblocks на рейде проявляется деградация скорости проверки.
Изначально скорость проверки идет 1% ~ 1 мин. Потом доходит до 1% ~ 7 мин. Проверка в итоге длилась 5-6 часов.

При тестировании дисков вне рейда скорость проверки не деградирует и держится на тех же 1% ~ 1 мин.

Сейчас склоняюсь к следующим вариантам
- неисправность рейд контроллера
- проблема драйвера, ядра

CentOS 7, ядро 3.10 штатное

Кто нибудь сталкивался, есть идеи?

Сетевая адаптация к новому железу., !*! sevajkl, (Сетевое оборудование) 09-Окт-19, 14:34  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Тема возможно избита, но я здесь первый!Следующее: Сняли образ диска с OS  Fedora8 2.6.23.1.-42, с древнего 2010г компа. на флешнакопитель.С USB связь с промышленным контроллером по eth0 имеется.Но при работе с флешнакопителя с ноутбука, связь с контроллером через eth0 отсутствует.Этот ноутбук планируется как палочка выручалочка,в случае выхода основного системника.Какая мне необходимо информация, куда бежать и как настроить через ноут связь. В этом вопросе у меня пробел...
Программирование базы данных для метрологического  контроля, !*! LeninLifeForever, (Другие СУБД) 23-Сен-19, 18:16  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте меня зовут Андрей, на работе планируется задача по запуску конвейера, по метрологическому контролю параметров различных микросхем, под это дело стоит задача, спроектировать базу данных,
на данный момент это выглядит так: сохраняемые файлы, Txt или XLS, сохраняются на рабочий компьютер в определенную директорию, от туда, выгружаются, затем это должно быть отображено в более удобной форме, на данный момент это представляется как веб станица с интерактивными гипер ссылками.
я почти новичок в этой области, не подскажите с чего начать, какой язык лучше подойдет. С чего начать в общем.
Какие книги лучше почитать, где поискать инфу? Понимаю что многого прошу но хотелось бы поконкретней.
Очень сильно прошу не бить.
Передача данных с удаленных систем без потери данных?, !*! alexkv, (Увеличение наджности) 01-Авг-19, 17:15  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Дано:
-Есть условно несколько удаленных Raspberry Pi (Orange и т.д.), к каждой подключены несколько датчиков. Сами Raspberry Pi подключены к интернету различными способами - где по 3G, где по Wi-Fi где по Ethernet. Канал передачи может прерываться на определенное время.
-Есть сервер с БД. Подключен постоянно к интернету.

Надо:
передавать данные с датчиков на сервер без потерь.

Т.е. скрипт на малине собирает данные с датчиков постоянно. При работающем канале передачи данных эти данные в реальном времени шлются на сервер и там попадают в БД. Если канал перестал работать (пропал 3G например), то данные накапливаются на малинке. При восстановлении канала надо передать накопленные и продолжить слать в реальном времени.

Подскажите пожалуйста концептуально как такое построить.
Хотелось бы максимально использовать системные возможности Linux и свободного ПО, поменьше программировать своих велосипедов.
Чет я потерялся, не понимаю с использованием чего (технологии, протоколы, ПО) такое лучше сделать.



Оптика на видеонаблюдение , !*! Gunsfeel, (Сетевое оборудование) 24-Июн-19, 18:55  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый вечер. Интересуюсь вопросом об установке (можно сказать в степи) язикп с сетевым оборудованием под видеонаблюд ение. Если подробнее то подобрал такой конфиг. Ящик уличный с климатической защитой ip54 с термостатом обогревателем и кулерами, в него планирую затянуть оптику одномодовую 4 волокна. Поставить туда регистратор и камеры зацепить по аналогу. Будет 16 камер ahd 3.6 объектив. Вопрос в том какой коммутатор поставить. Хочется управляемый желательно cisco. Но незнаю как он себя поведёт в мороз примерно -30 и жару +30
Поиск возможных решений по хранению данных, !*! Проходил мимо, (Разное) 11-Фев-19, 09:49  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте.

Подскажите пожалуйста, существуют ли какие-либо решения для организации вытесняющего хранения больших объемов данных, т.е. хранения, при котором старые и/или мало используемые данные автоматически вытесняются с быстрого хранилища на медленные и относительно дешевые средства хранения данных (в частности на ленточный накопитель)?

В идеале, на мой взгляд, схема выглядит примерно так: по прошествии какого-то времени не использования файл с быстрого хранилища автоматически перемещается на ленточку или в иное медленное но дешевое хранилище, при этом где-то должна оставаться информация о том, что этот файл переместился и где его теперь искать. При попытке же обратится к перемещенному файлу он должен прозрачно для пользователя либо переместиться обратно, либо стать доступным для пользователя каким-то иным способом.

Заранее спасибо.

Автоматический огнетушитель для небольшой серверной, !*! billybons2006, (Разное) 07-Фев-19, 14:56  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет! Можете посоветовать, какой автоматический огнетушитель поставить в небольшой серверной? Небольшая - 2.5 м кв примерно, по размеру как кладовка. Был Bonpet, но прошло много лет, его пора менять, может сейчас что-то лучше есть? Может, тот же МПП-2.5 (Буран)?
postfix - логи по внутреннему домену, !*! Alessandro1991, (Разное) 05-Окт-18, 10:00  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!
как настроить postfix? чтоб писали логи кому отправляет письма, от ящика локального домена на ящик тоже локального домена.
если наружу, то все пишет.
зависание Linux, rcu_sched detected stalls on CPUs/tasks, SMP, !*! maxnetstat, (Разное) 02-Окт-18, 11:43  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день!
Прошу помощи в решении проблемы.
Сам уже более недели не могу с ней справится.

Столкнулся с проблемой периодического подвисания сервера.

#---------------
Данные о железе:
CPU: Intel(R) Xeon(R) CPU E3-1270 v6 @ 3.80GHz (8 ядер)
MotherBoard: SuperMicro X11SSL-F
RAM:  8GB DDR4-2400 ECC Unbuffered Supermicro certified for Intel C232, C236 chipsets
Сеть: Intel 82599 10 Gigabit Network Connection
driver: ixgbe
version: 3.15.1-k

#---------------
Данные об ОС:
Debian 7.2
kernel 3.12.6

#---------------
Краткое описание сферы использования сервера:
Сервер используется как маршрутизатор (Quagga),
нагрузка на него сейчас небольшая - порядка 500-600 Мбит/с.
Планируется довести до 4-5 Гбит/с.

#---------------
Симптомы подвисания сервера:
Перестает отвечать на ICMP запросы и отдавать данные по SNMP (это со стороны системы мониторинга).
Также прекращает маршрутизировать трафик, BGP сессии, которые висят на нем также отваливаются.
Через 3-5 минут сервер "приходит в себя" и продолжает работать, при это периодически давая на себя задержки.

В dmesg в эти моменты вижу большое количество сообщений типа:

kernel: [283813.064128] INFO: rcu_sched detected stalls on CPUs/tasks: { 1} (detected by 2, t=5252 jiffies, g=22131346, c=22131345, q=6300)
kernel: [283813.064332] sending NMI to all CPUs:
kernel: [283813.064335] NMI backtrace for cpu 2
kernel: [283813.064337] CPU: 2 PID: 0 Comm: swapper/2 Not tainted 3.12.6.ipset-amd64 #3
kernel: [283813.064337] Hardware name: Supermicro Super Server/X11SSL-F, BIOS 2.2 05/23/2018
kernel: [283813.064339] task: ffff88026e0fc7e0 ti: ffff88026e12e000 task.ti: ffff88026e12e000
kernel: [283813.064340] RIP: 0010:[<ffffffff811b8008>]  [<ffffffff811b8008>] kasprintf+0x43/0x43
kernel: [283813.064343] RSP: 0018:ffff880277883cc8  EFLAGS: 00000046
kernel: [283813.064344] RAX: 0000000000000000 RBX: 0000000000002710 RCX: 0000000000000007
kernel: [283813.064345] RDX: 0000000000000006 RSI: 0000000000000200 RDI: ffffffff8167b570
kernel: [283813.064346] RBP: ffff88027788db00 R08: 0000000000000002 R09: 0000000000000000
kernel: [283813.064347] R10: 0000000000000000 R11: 0000000000002710 R12: ffffffff8163a600
kernel: [283813.064347] R13: 0000000000000001 R14: ffff88026e12e000 R15: ffffffff8163a6c0
kernel: [283813.064349] FS:  0000000000000000(0000) GS:ffff880277880000(0000) knlGS:0000000000000000
kernel: [283813.064349] CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
kernel: [283813.064350] CR2: 00007fa7748bd6f0 CR3: 000000000160b000 CR4: 00000000003407e0
kernel: [283813.064351] DR0: 0000000000000000 DR1: 0000000000000000 DR2: 0000000000000000
kernel: [283813.064352] DR3: 0000000000000000 DR6: 00000000fffe0ff0 DR7: 0000000000000400
kernel: [283813.064352] Stack:
kernel: [283813.064353]  ffffffff810245d2 ffffffff8163a600 ffffffff8109ca5f 00000000ffffffc0
kernel: [283813.064355]  000000000000189c 0000000000000083 0000000000000002 0000000000000000
kernel: [283813.064356]  ffff88026e0fc7e0 0000000000000000 0000000000000002 ffff88027788d0f0
kernel: [283813.064357] Call Trace:
kernel: [283813.064358]  <IRQ>
kernel: [283813.064358]  [<ffffffff810245d2>] ? arch_trigger_all_cpu_backtrace+0x5e/0x80
kernel: [283813.064364]  [<ffffffff8109ca5f>] ? rcu_check_callbacks+0x3e4/0x4c3
kernel: [283813.064366]  [<ffffffff81079df2>] ? tick_sched_do_timer+0x25/0x25
kernel: [283813.064368]  [<ffffffff8103f55c>] ? update_process_times+0x31/0x5c
kernel: [283813.064370]  [<ffffffff81079b4a>] ? tick_sched_handle+0x32/0x3d
kernel: [283813.064371]  [<ffffffff81079e22>] ? tick_sched_timer+0x30/0x4c
kernel: [283813.064373]  [<ffffffff81051119>] ? __run_hrtimer+0xab/0x152
kernel: [283813.064375]  [<ffffffff81051747>] ? hrtimer_interrupt+0xc5/0x1a7
kernel: [283813.064377]  [<ffffffff810238d6>] ? smp_apic_timer_interrupt+0x27/0x37
kernel: [283813.064379]  [<ffffffff81354fca>] ? apic_timer_interrupt+0x6a/0x70
kernel: [283813.064381]  [<ffffffff81038c15>] ? __do_softirq+0x8a/0x201
kernel: [283813.064382]  [<ffffffff81355a9c>] ? call_softirq+0x1c/0x30
kernel: [283813.064384]  [<ffffffff81003b7c>] ? do_softirq+0x2c/0x60
kernel: [283813.064385]  [<ffffffff81038e51>] ? irq_exit+0x3b/0x7f
kernel: [283813.064387]  [<ffffffff81003803>] ? do_IRQ+0x81/0x98
kernel: [283813.064388]  [<ffffffff8134e6aa>] ? common_interrupt+0x6a/0x6a
kernel: [283813.064389]  <EOI>
kernel: [283813.064390]  [<ffffffff812764b5>] ? cpuidle_enter_state+0x43/0xa6
kernel: [283813.064393]  [<ffffffff812764ae>] ? cpuidle_enter_state+0x3c/0xa6
kernel: [283813.064397]  [<ffffffff812765ea>] ? cpuidle_idle_call+0xd2/0x142
kernel: [283813.064399]  [<ffffffff81008fdd>] ? arch_cpu_idle+0x6/0x17
kernel: [283813.064401]  [<ffffffff8106d526>] ? cpu_startup_entry+0x11e/0x194
kernel: [283813.064402]  [<ffffffff8134e354>] ? _raw_spin_unlock_irqrestore+0x6/0x7
kernel: [283813.064404]  [<ffffffff8102232d>] ? start_secondary+0x1df/0x1e5


Насколько я понимаю, ядра периодически "стопорятся".

Прочитав: https://www.kernel.org/doc/Documentation/RCU/stallwarn.txt
решил что проблема в работе функций энергосбережения процессора.

и поэтому я сделал:
- отключал в BIOS функции управления энергопотребления C-STATE, P-STATE.
- выгружал модуль acpi_cpufreq

Никакого результата это не принесло.
Пробовал разнести прерывания таким образом, чтобы eth0 работал на одном ядре, но также не помогло.

В итоге загрузил систему с опцией nosmp.

Прошли сутки, с сервером проблем нет, но я теперь обладатель одноядерного процессора вместо 8 ядер.
на данный момент мне и 1 ядра хватает, но ведь это не решение проблемы...

Может кто-то с чем-то подобным сталкивался?
Могут ли подобные симптомы возникнуть по вине оперативной памяти?

linux+postfix+sasl, !*! Alessandro1991, (Разное) 14-Июл-18, 22:18  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте!
не могу поладить sasl.
выдает ошибку
fatal: no SASL authentication mechanisms

main.cf
smtpd_banner = $myhostname ESMTP $mail_name (Debian/GNU)
biff = no

append_dot_mydomain = no
readme_directory = no

smtpd_tls_key_file = /etc/ssl/private/server.key
smtpd_tls_cert_file = /etc/ssl/certs/server.pem
smtpd_use_tls = yes
smtpd_tls_session_cache_database = btree:${data_directory}/smtpd_scache
smtp_tls_session_cache_database = btree:${data_directory}/smtp_scache

myhostname = debian.test.ru
myorigin = $myhostname
mydestination = localhost

mailbox_size_limit = 16252928000
recipient_delimiter = +
inet_interfaces = all
virtual_mailbox_domains = mysql:/etc/postfix/sql/virtual-mailbox-domains.cf

virtual_mailbox_maps = mysql:/etc/postfix/sql/virtual-mailbox-maps.cf
virtual_alias_maps = mysql:/etc/postfix/sql/virtual-alias-maps.cf
virtual_uid_maps = static:5000
virtual_gid_maps = static:5000
virtual_transport = dovecot
dovecot_destination_recipient_limit = 1
smtpd_sasl_type = dovecot
smtpd_sasl_path = private/auth
smtpd_sasl_auth_enable = yes

smtpd_sender_restriction = permit_mynetworks,
                           check_sender_access mysql:/etc/postfix/mysql-sender.cf,
                           reject_unknown_sender_domain,
                           reject_unverified_sender,
                           reject

smtpd_client_restriction = permit_mynetworks,
                           reject


smtpd_recipient_restrictions = permit_sasl_authenticated,
                               permit_mynetworks,
                               reject_unauth_destination,
                               reject_non_fqdn_hostname,
                               reject_non_fqdn_sender,
                               reject_non_fqdn_recipient,
                               reject_unauth_pipelining,
                               reject_invalid_hostname,
                               check_policy_service inet:127.0.0.1:10023,
                               check_sender_access hash:/etc/postfix/sender_access,
                               check_helo_access hash:/etc/postfix/helo_access,
                               permit
smtpd_helo_required = yes
smtpd_helo_restrictions = permit_mynetworks,
                          permit_sasl_authenticated,
                          reject_invalid_hostname,
                          reject_non_fqdn_hostname,
                          reject_unknown_hostname,
                          permit
smtpd_delay_reject = yes
smtpd_data_restrictions = reject_unauth_pipelining, reject_multi_recipient_bounce, permit

mynetworks = 127.0.0.0/8 172.16.0.0/22 172.17.0.0/22 192.168.4.0/24 192.168.5.0/24 192.168.6.0/24 192.168.7.0/24 192.168.8.0/24 192.168.9.0/24

message_size_limit = 31457280

recieve_override_options = no_address_mappingsaddress_verify_sender
address_verify_sender =$double_bounce_sender
default_process_limit = 150

compatibility_level = 2

и в dovecot \ 10-master.conf

auth_mechanisms = plain cram-md5

unix_listener /var/spool/postfix/private/auth {
       mode = 0660
     user = postfix
        group = postfix

  }

}

Процессор Intel Xeon X560 в сервере HP Proliant DL16-G5, !*! nops, (Серверные платформы) 23-Фев-18, 11:26  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго здравия всем.
Обращаюсь с вопросом и за советом.
У меня работал X5460 на s775 и все было прекрасно, пока я не захотел больше памяти и больше производительности. У меня уже лежал второй процессор X5460 и тут мне на халяву достался сервак HP ProLiant DL160 G5. Сейчас там установлены Е5430, 2 штуки. Он как бы работает, но хочется поставить Х5460, они по частоте побольше.
Так вот.
Поставил я вчера эти процессоры, запускать, а у меня на экране толко начальный экран HP ProLiant и все, даже в бис зайти не могу. Ничего не происходит и не грузится, просто горит на экране заставка.
Выключил, открываю, а куллера у меня горячащие, градусов под 70.
Процессоры поставил правильно, ключами куда надо.
В спецификации на сервер(http://www.proliant.ru/catalog/servers/DL/servery_snjatye_s_...) написано, что этот сервер поддерживает этот процессор.

Подскажите, как быть и что делать? Может я что-то делаю не так или может нужно перепрошить сервер?
Или может нужно активировать лицензионный ключ для поддержки этого процессора?



postfixadmin+dovecot, !*! Alessandro1991, (Разное) 15-Фев-18, 23:59  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
здравствуйте!
помогите плиз.
по этой ссылки делал настройку квот, пока без оповещения.
https://kamaok.org.ua/?p=2189
по итогу -
doveadm quota get -u test2@test.ru
Quota name Type    Value Limit                                                                     %
User quota STORAGE 13482     -                                                                     0
User quota MESSAGE    13     -                                                                     0
лимиты не работают.
может там что не правильно?
это норм?

user_query = SELECT '/var/vmail/%d/%n' as home, 'maildir:/var/vmail/%d/%n' as mail, 5000 AS uid, 8 AS gid, concat('*:bytes=', quota) AS quota_rule FROM mailbox WHERE u$
password_query = SELECT username as user, password, '/var/vmail/%d/%n' as userdb_home,'maildir:/var/vmail/%d/%n' as userdb_mail, 5000 as userdb_uid, 8 as userdb_gid FR$

копирование по фильтру - от кого\кому, !*! Alessandro1991, (Разное) 11-Фев-18, 09:21  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Приветствую!
задача, копирование писем при -
от *@test.ru
кому test@test.ru
и копировать на test2@test.ru
header_cheks это реализовать можно?
Проблема с mdraid 6 под centos 6., !*! lightspeed, (Хранилища данных) 26-Дек-17, 13:41  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Приветствую,

Возникла следующая проблема. Небходимо было расширить хранилище mdraid 6, добавить в него еще один диск из spare. Диск добавил. Сделал grow. НО, ЗАБЫЛ УБРАТЬ INTERNAL BITMAP.
Соответственно, получил такое:

[root@home ~]# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md126 : active raid6 sdn1[13] sdk1[6] sda1[0] sdm1[7] sdc1[2] sdl1[10] sdi1[12] sdg1[5] sdb1[1] sdj1[4] sdh1[11]
      15627026432 blocks super 1.2 level 6, 512k chunk, algorithm 2 [11/11] [UUUUUUUUUUU]
      [======>..............]  reshape = 33.0% (644716212/1953378304) finish=23865280.9min speed=0K/sec
      bitmap: 2/15 pages [8KB], 65536KB chunk

Т.е. вообще перестал решейпить.
При этом, %Util в iostat = 100% для всех дисков в массиве.
Выглядит вот так:

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     7.00    0.00    0.00    0.00   0.00 100.00

Ну а одно из ядер на полке:

  PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND                                                                          
  848 root      20   0       0      0      0 R 100.0  0.0 920:29.86 md126_raid6    

Вопрос, как с этим справиться?
Лично у меня возникла следующая идея. Загрузиться в init /bin/sh, и далее *пересоздать* массив со всеми дисками в нужном порядке, c assume clean.  По-идее, FS (ext4) не должна побиться.
Если делать assemble, то автоматом поднимется reshaping.

P.S.
все переменные по скорости в /sys/block/.. стоят на максе.

Спасибо!

Подключение ленточного накопителя HP MSL 2024 по fibre channel , !*! sergicus, (Хранилища данных) 22-Ноя-17, 10:55  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Вот у меня какая проблема - мне нужно подключить по fibre channel ленточный накопитель к серверу на freebsd 11.1

У меня есть fg карта Qlogic ISP 2532   и ленточный накопитель HP MSL 2024
Я установил эту карточку в сервер, подключил оптическим  патчкордом к ленточному накопителю.

пересобрал ядро  с опциями

device         isp
device         ispfw
options        ISP_TARGET_MODE

Вижу сетевая карта видна

dmesg | grep -i isp
isp0: <Qlogic ISP 2532 PCI FC-AL Adapter> port 0x2000-0x20ff mem 0xdfa00000-0xdfa03fff,0xdf900000-0xdf9fffff irq 16 at device 0.0 on pci2

Запускаю
[root@bareos /usr/ports/sysutils/pciutils]# ctladm port -l
Port Online Frontend Name     pp vp
0    NO     camsim   camsim   0  0  naa.5000000988d59b01
1    YES    ioctl    ioctl    0  0
2    YES    tpc      tpc      0  0
3    NO     camtgt   isp0     0  0


[root@bareos /usr/ports/sysutils/pciutils]# ctladm devlist -v
LUN Backend       Size (Blocks)   BS Serial Number    Device ID
[root@bareos /usr/ports/sysutils/pciutils]#


[root@bareos /usr/ports/sysutils/pciutils]# sysctl dev.isp.
dev.isp.0.use_gff_id: 1
dev.isp.0.use_gft_id: 1
dev.isp.0.topo: 0
dev.isp.0.loopstate: 0
dev.isp.0.fwstate: 0
dev.isp.0.linkstate: 0
dev.isp.0.speed: 0
dev.isp.0.role: 0
dev.isp.0.gone_device_time: 30
dev.isp.0.loop_down_limit: 60
dev.isp.0.wwpn: 5764963215614133682
dev.isp.0.wwnn: 5764963215614133683
dev.isp.0.%parent: pci2
dev.isp.0.%pnpinfo: vendor=0x1077 device=0x2532 subvendor=0x103c subdevice=0x3262 class=0x0c0400
dev.isp.0.%location: slot=0 function=0 dbsf=pci0:16:0:0 handle=\_SB_.PCI0.PEX1.PXS1
dev.isp.0.%driver: isp
dev.isp.0.чsc: Qlogic ISP 2532 PCI FC-AL Adapter
dev.isp.%parent:
[root@bareos /usr/ports/sysutils/pciutils]#


Я не понимаю что делать дальше?? ПОДСКАЖИТЕ

 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру