The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Подсказка: Для контроля за появлением новых сообщений - перед выходом жмите "Пометить прочитанным".
Форум Открытые системы на сервере
nftables: как изменить TTL ?, !*! vano_vvv, (Firewall, Фильтрация пакетов / Linux) 24-Окт-20, 21:26  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здраствуйте.
Раньше было
# iptables -t mangle -A POSTROUINTG -o eth1 -j TTL --ttl-set 20
теперь пробую
# iptables-translate  -t mangle -A POSTROUINTG -o eth1 -j TTL --ttl-set 20
nft # -t mangle -A POSTROUINTG -o eth1 -j TTL --ttl-set 20
хотя вышеприведенная команда продолжает работать и TTL пакетов изменяется. но
# nft list ruleset
table ip mangle {
        chain POSTROUTING {
                type filter hook postrouting priority mangle; policy accept;
                counter # TTL set to 2
        }
}

если это загрузить с помощью nft -f то оно не работает.
Так как правильно написать
nft add rule mangle POSTROUTING .....
чтоб изменить TTL

PS: iptables на том сервере нету, только nft, iptables поверх nft проверял в дебиане тестинге.

Sendmail ограничения для списков рассылки, !*! DustpaN, (Почта / Linux) 23-Окт-20, 14:00  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте уважаемый All!

Есть почтовый сервер Sendmail

Нужно сделать чтобы на определенные списки рассылки (mailing list), можно было отправлять почту только с локального домена.
Типа на all@domain.com можно отправлять только с *@domain.com

Подскажите куда копать, гугление ни к чему не привело или я как-то не так ищу.

Заранее спасибо!

Zimbra 8.8 не приходит письмо с конкретного адреса, !*! kosmanit, (Почта / Linux) 21-Окт-20, 11:44  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день!

Коллеги, подскажите, столкнулся со следующей проблемой: Есть почтовый сервер (на Zimbra), и есть конкретный домен из вне, который отправляет на мои адреса письма, и письмо до моего сервера доходит, в логах zimbra: status=sent (250 2.1.5 Delivery OK), но до пользователя оно не доходит. При том, что ранее переписка между этими адресами проходила в штатном режиме. Письма не видно не в почтовых клиентах, не через web интерфейс zimbra.
Вот логи касаемо это отправителя: (меня смущает строка (Oct 20 10:00:32 mail postfix/cleanup[10179]: 8C8B093C66: message-id=$Null) или это нормально?

Полный текст:

Oct 20 10:00:32 mail postfix/smtpd[10176]: connect from mail1.az.ru[IP_ADDRESS]
Oct 20 10:00:32 mail postfix/smtpd[10176]: Anonymous TLS connection established from mail1.az.ru[IP_ADDRESS]: TLSv1.2 with cipher ECDHE-RSA-AES256-SHA384 (256/256 bits)
Oct 20 10:00:32 mail postfix/smtpd[10176]: NOQUEUE: filter: RCPT from mail1.az.ru[IP_ADDRESS]: def@az.ru: Sender address triggers FILTER smtp-amavis:[127.0.0.1]:10026; from=def@az.ru to=kuk@meat.ru proto=ESMTP helo=<mail1.az.ru>
Oct 20 10:00:32 mail postfix/smtpd[10176]: NOQUEUE: filter: RCPT from mail1.az.ru[IP_ADDRESS]: def@az.ru: Sender address triggers FILTER smtp-amavis:[127.0.0.1]:10024; from=def@az.ru to=kuk@meat.ru proto=ESMTP helo=<mail1.az.ru>
Oct 20 10:00:32 mail postfix/smtpd[10176]: 2D5B093C64: client=mail1.az.ru[IP_ADDRESS]
Oct 20 10:00:32 mail postfix/qmgr[10018]: 2D5B093C64: from=def@az.ru, size=74948, nrcpt=1 (queue active)
Oct 20 10:00:32 mail postfix/smtpd[10176]: disconnect from mail1.az.ru[IP_ADDRESS] ehlo=2 starttls=1 mail=1 rcpt=1 data=1 quit=1 commands=7
Oct 20 10:00:32 mail postfix/qmgr[10018]: 8C8B093C66: from=def@az.ru, size=75571, nrcpt=1 (queue active)
_______________
root@mail:~# cat /var/log/mail.log | grep -i 8C8B093C66
Oct 20 10:00:32 mail postfix/amavisd/smtpd[10184]: 8C8B093C66: client=localhost[127.0.0.1]
Oct 20 10:00:32 mail postfix/cleanup[10179]: 8C8B093C66: message-id=$Null
Oct 20 10:00:32 mail postfix/qmgr[10018]: 8C8B093C66: from=def@az.ru, size=75571, nrcpt=1 (queue active)
Oct 20 10:00:32 mail postfix/smtp[10180]: 2D5B093C64: to=kuk@meat.ru, relay=127.0.0.1[127.0.0.1]:10024, delay=0.46, delays=0.14/0.01/0/0.31, dsn=2.0.0, status=sent (250 2.0.0 from MTA(smtp:[127.0.0.1]:10025): 250 2.0.0 Ok: queued as 8C8B093C66)
Oct 20 10:00:32 mail postfix/lmtp[10185]: 8C8B093C66: to=kuk@meat.ru, relay=mail.meat.ru[IP_ADDRESS]:7025, delay=0.19, delays=0.04/0.01/0.05/0.09, dsn=2.1.5, status=sent (250 2.1.5 Delivery OK)
Oct 20 10:00:32 mail postfix/qmgr[10018]: 8C8B093C66: removed

Как я вижу, все ок. Но почему в почте его не видно:? Коллеги, прошу дать совет. Заранее спасибо

Linux-дистрибутив для построения кастомного backup-диска??, !*! mandms, (Резервное копирование) 18-Окт-20, 07:13  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день,
Посоветуйте пожалуйста Linux-дистрибутив пригодный для построения кастомного backup-диска :

Дано:
Специальный софт для восстановления и редактирования диска
Работает на Linux+GTK, так что требуется GTK
(на самом деле написан на wxWidgets и кроссплатформенный но это тут не важно)

Требуется:
Чтоб было GTK
Минимальный размер
Чтоб работал на максимально большом возможном спектре машин
Возможно понадобится ставить на нем MATE
---
Из того что нашел по размеру малое - Clonezilla'вский дистрибутив, т.к. его размер маленький
200 Mb. Всё остальное по размеру значительно жирнее: 700мб, 1Гб и тд.
Но в Clonezilla вроде нету GTK/MATE
В принципе MATE не критично, но он и не особо большой вроде.
Многого не нужно -- лишь бы выполнимый файл работал.

Что предложите ?

Спасибо за полезные ответы, надеюсь будут
(Если это был неправильный форум, подскажите куда писать, спасибо)



Доступ по ssh к linux device за NAT, !*! ll7ll, (Маршрутизация, NAT / Linux) 15-Окт-20, 12:40  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Пробовал таким образом организовать ssh туннель: публичные ключи присутствуют на обоих сторонах в autorized_keys, на клиентском устройстве (которое за NAT c ip 192.168.1.4) выполнил:

# ssh -R2222:localhost:22 ip_remote_сервера

на удаленном сервере выполнил:

# ssh localhost -p2222
root@localhost: Permission denied (publickey).

При этом на сервере:

# ls -la .ssh/
total 24
drwx------ 2 root root 4096 Oct 14 16:36 .
drwx------ 7 root root 4096 Oct 14 18:41 ..
-rw-r----- 1 root root 2800 Oct 14 16:35 authorized_keys
-rw------- 1 root root 3389 Oct  6 13:30 id_rsa
-rw-r--r-- 1 root root  749 Oct  6 13:30 id_rsa.pub
-rw-r--r-- 1 root root  444 Oct 14 18:05 known_hosts

на клиенте:

node-1:~/.ssh # ls -l
-rw-r-----    1 root     root          2800 Oct 14 16:35 authorized_keys
-rw-------    1 root     root          3369 Oct 14 14:34 id_rsa
-rw-r--r--    1 root     root           737 Oct 14 14:34 id_rsa.pub
-rw-r--r--    1 root     root           173 Oct 14 14:53 known_hosts

Порт 2222 открыт.

Когда еще добавил на стороне клиента в authorized_keys перед сами публичным ключом команды

command="echo 'Connect successful!'; countdown 3600,no-agent-forwarding,no-X11-forwarding" ssh-rsa AAAAB3NzaC1yc2EAAAADAQAB...

выдало:

# ssh -R2222:localhost:22 ip_remote_сервера
Warning: remote port forwarding failed for listen port 2222
Connect successful!
bash: countdown: command not found
Connection to ip_remote_сервера closed.

Аналогично затем и по отдельности

bash: no-agent-forwarding,no-X11-forwarding: command not found

Какой-то неверный синтаксис в самом authorized_keys относительно запуска нескольких команд перед значением ключа?

Как принять пакет с чужим dst-MAC ?, !*! Rom1, (Маршрутизация, NAT / Linux) 13-Окт-20, 14:06  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Всем привет!

На интерфейсе системы eth0 MAC-адрес 00:00:00:00:00:11, на этот интерфейс прилетает пакет на иной MAC-адрес (например 00:00:00:00:00:22). Нужно чтобы система приняла этот пакет и далее, уже провела с ним роутинг и пр.

Выполнил это:
ebtables -t nat -A PREROUTING -d 00:00:00:00:00:22 -i eth0 -j dnat --to-destination 00:00:00:00:00:11
Но это не помогло.

Подскажите что делать.

net.ipv4.conf.all.rp_filter = 0
net.ipv4.conf.default.rp_filter = 0
net.ipv4.conf.eth0.rp_filter = 0
net.ipv4.conf.lo.rp_filter = 0



Яндекс-почта + imap + mbsync — названия ящиков, кодировка., !*! lockywolf, (Почта) 11-Окт-20, 08:19  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]

Собственно, тривиальный .mbsyncrc:


IMAPAccount imap-lockywolf-yandex
Host imap.yandex.ru
User <redacted>
PassCmd "my_get_password"
SSLType IMAPS

IMAPStore imapstore-lockywolf-yandex
Account imap-lockywolf-yandex

MaildirStore local-lockywolf-yandex
SubFolders Verbatim
Path ~/Mail-mbsync/
Inbox ~/Mail-mbsync/inbox

Channel yandex->local
Master :imapstore-lockywolf-yandex:
Slave :local-lockywolf-yandex:
Patterns *


Запускаем mbsync -V -l 'yandex->local'

Видим:


lockywolf@delllaptop:/tmp/RAMFS$ mbsync -lV 'yandex->local'
Reading configuration file /home/lockywolf/.mbsyncrc
Channel yandex->local
Opening master store imapstore-lockywolf-yandex...
Resolving imap.yandex.ru... ok
Connecting to imap.yandex.ru (77.88.21.125:993)...
Opening slave store local-lockywolf-yandex...
Connection is now encrypted
Logging in...
Authenticating with SASL mechanism PLAIN...
INBOX
&BB4EQgQ,BEAEMAQyBDsENQQ9BD0ESwQ1-
&BBgEQQRFBD4ENARPBEkEOAQ1-
&BCEEPwQwBDw-
&BCMENAQwBDsENQQ9BD0ESwQ1-
&BCcENQRABD0EPgQyBDgEOgQ4-
Archive


Ну ништяк, в 2020 году проблемы с кодировкой. Как поправить?

FS – ext4, системная кодировка utf8.

iconv -l показывает миллион всяких разных кодировок.

Глюк  с yum в CentOS 8, !*! ACCA, (Разное) 06-Окт-20, 04:53  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть две VM с CentOS 8 на одном хосте ProxMox. Обе - клоны из одной template. Одна подсеть, адреса отличаются на 1. Доступ в Internet - только через прокси. На одной yum работает штатно, на другой жалуется -

# yum update
CentOS-8 - AppStream                                                                                              0.0  B/s |   0  B     00:00    
Errors during downloading metadata for repository 'AppStream':
  - Curl error (7): Couldn't connect to server for http://mirrorlist.centos.org/?release=8&arch=x86_64&repo=App... []
Error: Failed to download metadata for repo 'AppStream': Cannot prepare internal mirrorlist: Curl error (7): Couldn't connect to server for http://mirrorlist.centos.org/?release=8&arch=x86_64&repo=App... []

Файлы /etc/yum.conf у них одинаковые:


[main]
gpgcheck=1
installonly_limit=3
clean_requirements_on_remove=True
best=True
skip_if_unavailable=False
proxy=http://192.168.5.2:8888

На глюкавой пробую:

# export http_proxy=http://192.168.5.2:8888

# yum update
CentOS-8 - AppStream                                                                                              0.0  B/s |   0  B     00:00    
Errors during downloading metadata for repository 'AppStream':
  - Curl error (7): Couldn't connect to server for http://mirrorlist.centos.org/?release=8&arch=x86_64&repo=App... []
Error: Failed to download metadata for repo 'AppStream': Cannot prepare internal mirrorlist: Curl error (7): Couldn't connect to server for http://mirrorlist.centos.org/?release=8&arch=x86_64&repo=App... []

# curl 'http://mirrorlist.centos.org/?release=8&arch=x86_64&repo=App...'
http://mirror.datto.com/CentOS/8.2.2004/AppStream/x86_64/os/
http://mirror.team-cymru.com/CentOS/8.2.2004/AppStream/x86_6.../
http://mirrors.rcs.alaska.edu/centos/8.2.2004/AppStream/x86_.../
http://mirror.us-midwest-1.nexcess.net/CentOS/8.2.2004/AppSt.../
http://mirrors.umflint.edu/CentOS/8.2.2004/AppStream/x86_64/os/
http://mirror.math.princeton.edu/pub/centos/8.2.2004/AppStre.../
http://mirrors.xtom.com/centos/8.2.2004/AppStream/x86_64/os/
http://mirror.net.cen.ct.gov/centos/8.2.2004/AppStream/x86_6.../
http://mirror.xrepo.net/centos/8.2.2004/AppStream/x86_64/os/
http://mirrors.rit.edu/centos/8.2.2004/AppStream/x86_64/os/

Для прикола пробую на исправной:


# export http_proxy=http://192.168.5.2:8888
# yum update
Last metadata expiration check: 0:34:33 ago on Mon 05 Oct 2020 09:04:53 PM EDT.
Dependencies resolved.
Nothing to do.
Complete!

Пробовал тереть:


# yum clean all
# rm /var/lib/dnf/*

Пробовал добавить в каждый файл /etc/yum.repos.d/ строку


proxy=http://192.168.5.2:8888

yum update работает, но не могу делать что-нибудь вроде:


yum install https://yum.postgresql.org/12/redhat/rhel-8-x86_64/pgdg-redh...


CentOS у меня не родной, я всё как-то по Debian. Там такого дебилизма отродясь не было.




Современные интерфейсы для управления переферийными устройствам, !*! mverepin, (Аппаратура, Железо) 05-Окт-20, 20:59  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
20 лет назад для управления разным железом (станки, лампочки, руки робота, вентиляторы киловатта на 4) использовались либо специальные платы, либо com\lpt.

Сейчас же куда не посмотри, чтобы лампочку включить можно взять usb реле и вперед.  Однако, usb сам по себе склонен к зависаниям, подгораниям и прочим неприятностям. Кроме этого, электромеханически разьем не внушает доверия т.к. не имеет даже физической фиксации кабелей.

Возник вопрос, в "серьезных" решениях что для этого применяется? Какие стандарты\протоколы итп.

Как передать временную зону процессу из Systemd unit?, !*! And, (Системное и пользовательское ПО / Linux) 24-Сен-20, 17:03  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
В Systemd Unit через Exec=... запускается сервис. Как правильно передать сервису временную зону Через что?

"Само" не подбирает нужную инфу: оказывается время по Гринвичу. date отрабатывает верно, для неё нужная информация доступна и заэкспорчена. Можно сделать разными способами, но какой способ обычный?

P.S. RHEL, если важно.

Использование двух MX для домена, !*! ll7ll, (Почта / Linux) 24-Сен-20, 12:45  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
А возможно настроить MX записи так, чтобы одна указывала на свой почтовый сервер для домена, а вторая на Gmail_ский? Цель такая-использовать 1 почтовый ящик, который работал бы только через Gmail (за 5 USD в месяц), а остальные ящики обслуживались бы своим почтовым сервером.
snmpset на hp ilo сервере, !*! Aaalex, (Solaris привязка / Linux) 22-Сен-20, 18:39  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Не могу поменять через snmp значения oid на сервере с hp ilo.

Скажем -
snmpset -v3 -l authpriv -u user -A "pass1234" -X "pass1234" 10.0.215.22  .1.3.6.1.2.1.1.6.0 s "newplace"
дает:
Error in packet.
Reason: noAccess
Failed object: iso.3.6.1.2.1.1.6.0

а чтение работает нормально.
В настройках hp ilo можно задать read community, а вот write не нашел.
В чем может быть дело?

Про Proxmox, !*! ACCA, (Разное / Linux) 18-Сен-20, 04:45  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Купил подписку на Proxmox, потом затеял upgrade. Ключи подписки, разумеется, съехали и начались глюки. Только начал переписку с бухгалтерией Proxmox, тут же всё выровнялось и механика заработала. Очевидно, инженеры вмешались и разрулили всё по понятиям.

Мораль - Proxmox всё ещё инженерная компания. Там у руля кто-то, кто знает, что делать.

[сообщение отредактировано модератором]



надо потестировать антиспам, !*! gred, (Почта) 16-Сен-20, 20:15  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
нужно много трафика от спамерских зомби в спамтрап, как получить?
засветил e-mail на сайте, но пока нет прихода.
iptables , !*! gerg, (Маршрутизация, NAT / Linux) 12-Сен-20, 18:34  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день!
Есть шлюз с белым IP (1.1.1.1) и две сетки, за ним, с серыми адресами. Провайдер отдал нам еще сеть с белыми адресами 2.2.2.2/28, там будут крутится веб сервера, почтовик, и т.д. К этой сети нужен доступ как из WAN так и из LAN1,2.  На шлюз добавлю еще одну сетевую. Система Centos 7.  

шлюз IP 1.1.1.1
NEW LAN 2.2.2.2/28  (DMZ???)
LAN1 192.168.0.1/24
LAN2 10.10.10.1/24

-->WAN-[gate]---2.2.2.2/28
                  | |
             LAN1 LAN2

Подскажите, пожалуйста, как в правилах iptables дать доступ к сети 2.2.2.2/28 из локальных сетей и интернета? Или достаточно включенной ip_forward?

Почтовик, два MX и их TTL, !*! IvanLeka, (DNS) 11-Сен-20, 20:05  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Доброго времени суток!
Пишу в разделе DNS, но вопрос наверное по большей части касательно почтовых серверов...

Есть один почтовик с двумя провайдерами; надежность провайдера, у которого скорость выше хромает.

Я создаю MX запись mail.xxx.yy. A записей на домен mail.xxx.yy две. По одной на каждый IP каждого провайдера. Для "распределения" нагрузки.

Вопрос: Если я укажу на A записи "кошерный" TTL 3600 сек, почтовый сервер пытающийся отправить нам письмо забирает сразу обе A записи и, в случае неудачи по одному IP пытается отправить на второй, или "запоминает" первую попавшуюся A запись и долбится в нее до окончания TTL? И мне тогда надо указывать TTL 5-10 секунд?

P.S. Сейчас TTL 10 сек.

Заранее спасибо за помощь!



Маршрутизация между под сетями , !*! Skif, (Маршрутизация, NAT / Linux) 18-Авг-20, 13:09  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Есть два ЦОД, которые соединены между собой оптикой. По историческим причинам в каждом из этих ЦОД своё адресное пространство, которое изменить нельзя.

ЦОД-1: 192.168.1.0/24
ЦОД-2: 192.168.2.0/24

192.168.1.1/192.168.2.1 - шлюзы в большой мир.
Внешние IP - x.x.x.x/y.y.y.y. IP для туннеля между ЦОДами: 192.168.254.2/192.168.254.3

Вопрос в чём, мне необходимо в каждой подсети получить дополнительное адресное пространство, например подсеть 192.168.3.0/24
На данном этапе, они (сети 192.168.3.0/24) должны быть изолированы друг от друга, т.е. менять настройки соединения между ЦОДами для туннелей - нельзя, да и не нужно. В этом адресном пространстве сейчас необходимо развернуть ряд сервисов.
Я вижу простой выход в том, чтобы просто задать маску не /24, а /21 бит (/22 не беру, потому как может потребоваться запас в дальнейшем)

Теперь переходу собственно к вопросу.

Берём ЦОД-1. Теперь там 192.168.1.0/21 и с условного хоста 192.168.1.20  я могу без проблем подключится к условному 192.168.3.10
Тут всё ок.
Теперь мне нужно из ЦОД-2, который имеет 192.168.2.0/21 достучаться к 192.168.1.20.

Туннель между ЦОД знает о сетях 192.168.1.0/24 и 192.168.2.0/24. Не возникнут ли у меня проблемы  прохождением пакетов? Вопрос для меня критичен, так как между ЦОДами "размазан" swarm и не хотелось бы положить половину нод.



Доступ к hp ilo через ipmi (или как-то еще)?, !*! Aaalex, (Мониторинг, логи / Linux) 07-Авг-20, 14:07  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Для серверов hp можно использовать для получения инфы их api по http
"HPE iLO 4 Scripting and Command Line Guide"

все хорошо, но каждый запрос оставляет отдельную запись в ilo event log. Если часто опрашивать, лог переполняется ненужной инфой. При этом обращение к датчикам через ipmi не приводит к умножению записей, просто увеличивается число "count" для таких обращений.

Можно как-то получать доступ к элементам ilo, скажем "iLO Event Log", "Integrated Management Log" через ipmi?
Или любой способ не замусоривающий лог?

Проблема прикрепления файлов в webmail из сети(samba) в chrome, !*! Egenius, (Samba, выделена в отдельный форум / Linux) 06-Авг-20, 11:04  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день!

Есть сервер общих папок на samba 4.7.1 в доменной сети.
Наблюдаются проблемы при прикреплении файлов с определённых папок в веб-клиенте электронной почты roundcube, mail.ru, yandex и других, кроме gmail, в браузере chrome.
К примеру есть общая папка "\\smbshare\Дирекция_по_проектам", файлы из которой без проблем подгружаются в письмо.
Заметьте что имя общего ресурса содержит большие и маленькие символы и знаки "_".
Есть другая папка "\\smbshare\Коммерческая_служба", из которой файлы не подгружаются.
Интерфейс mail.ru не выдаёт ошибок, он просто тихо не прикрепляет вложение. А вот roundcube(корпоративный) выдаёт сообщение

Ошибка соединения (Сбой подключения к серверу)!

В консоли chrome отображается ошибка
"net::ERR_FAILED"

В логах samba никаких сообщений об ошибках даже в режиме debug.
Есть подозрение что проблема кроется в именах папок, т.к. если сделать шару ""\\smbshare\test123" которая фактически ссылается на ту же директорию на сервере что и "Коммерческая_служба", то вложения прикрепляются.

Проблема наблюдается в chrome и ещё в skype с этой же и другими подобными шарами.
В firefox всё работает.
Переименовывать шары не вариант, т.к. у пользователей выведены ярлыки плюс связи в файлах завязаны на именах папок.

Прошу помочь разобраться в проблеме.

Заранее благодарю!


FreeBSD: 3 интерфейса + частичный доступ в Internet, !*! SysAdmin, (Маршрутизация, NAT) 30-Июл-20, 12:42  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Приветствую всех,

Столкнулся с неочевидной проблемой... :(

Есть сервер FreeBSD, на нем три интерфейса, скажем if0 и if2 - смотрят в локальные сети (подсети класса A и С), if1 - смотрит наружу. На if1 поднят NAT для обеих локалок. ДНС во внимание не принимаем: он настроен и из обеих локалок отрабатывает нормально, пинги тоже проходят без проблем!

Проблема проявляется в том, что из подсети на if2 все сайты открываются без вопросов, а из подсети на if0 - скажем так процентов 40% открывается, остальные нет... :( Обидно то, что это было настроено и ужо все работало! Но Компания большая, полазили/ поэкспериментировали и получили частичную неработоспособность.... :( Кто/что/где поменяли - вряд ли удастся от кого-то добиться... :( Правила файрвола не менялись за это время! :(

Отталкиваемся от того, что в подсети if2 все работает как и прежде... Для информации: на интерфейсе if0 зажато все по максимуму :( (увы, таковы были требования по настройке) - фактически из этой подсети разрешён только выход в Инет и можно достучаться по RDP на хост, находящийся в этой подсети (собственно, этому хосту и разрешался выход в Инет и на нём проявляется эта проблема с частично неработоспособными сайтами)...

Буду признателен за любую помощь или пинок в нужном направлении! :(
Не дайте погибнуть от непонимания.... :)

Спасибо!



Проблема с отображением оборотов вентиляторов, !*! Аноним, (Мониторинг, логи) 28-Июл-20, 19:15  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Отыскал старую материнку Intel DH57JG с чипсетом H57 и установил на нее Debian 10/64 в качестве localhost-сервера.
Всё завелось и работает, кроме отображения оборотов вентиляторов CPU и шасси в "sensors", хотя с BIOS они отлично отображаются.

Раньше на этоя материнке работал CentOS 6, и емнимп, обороты в нем отображались нормально.

Но прогресс не стоит на месте - если раньше ядро было 2.6.xxx и все с ним прекрасно работало, то из современного 4.19.xxx, если не ошибаюсь, что-то выкинули и создали проблему.

Можно ли решить эту проблему?

Только пожалуйста, не предлагайте эксперименты с ядрами, в силу некоторых причин мне нужно придерживаться официального ядра Debian 10/64.
Может, какое-то firmware поможет, или еще что-то...

traefik + rabbitmq, !*! Skif, (Системное и пользовательское ПО / Linux) 28-Июл-20, 14:15  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Вопрос, кто-то поднимал такую связку? Можете поделится конфигурацией или подскажете где почитать?
Пока нашёл только пропускание фронтенда кролика через него. А нужно именно AMPQ. По документации видно, что в TCP умеет, но ни одной доки на связку с таким популярным продуктом...
RAID5 и Hotspare, !*! Roman, (Файловые системы, диски) 21-Июл-20, 11:56  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
господа знатоки есть вопрос
у меня 2 RAID5 и 2 Hotspare к ним
я создаю еще один с помощью megacli
вопрос для каждого массива нужно Hotspare или они вне массивов и достаточно уже имеющихся 2х?
или каждый принадлежат определенному массиву и нужно 3?


подключить один диск к двум серверам\пк?, !*! несторМахно, (Файловые системы, диски) 20-Июл-20, 22:18  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте.

ищу возможность подключить один диск к двум серверам\пк одновременно без использования сети,
чтобы диск определялся как обычный системный(не NAS\iSCSI).

в идеале чтобы каждый сервер\пк мог по очереди писать\читать с диска.

может быть есть какие-то переходники с допконтроллером для ide\sata\sas ?

это реально или нет?

Проблема с разделом LVM и суперблоками, !*! Murano, (Файловые системы, диски / Linux) 17-Июл-20, 11:53  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Коллеги, приветствую!

Срочно нужна помощь (не бесплатно для того, кто поможет решить!). Суть проблемы:

есть одна группа томов LVM. На ней своп, корень и var. Недавно закончилось место на var. Обычная проблема, которая решается расширением диска.

На одной из машин произошло что-то непонятное. При создании раздела через fdisk (который должен был стать sda4) похерился sda3, который как раз физический том для vg1-varfs (/var). В итоге последний после ребута просто вывалился и не отображался в /dev/mapper/. Эту проблему я решил. Тут просто сбился по непонятным причинам uuid диска.

В в /dev/mapper/ появился varfs. Но он не хочет монтироваться, выдавая это: "wrong fs type, bad option, bad superblock on /dev/mapper/vg1-varfs".

fsck оказался бесполезен. Через DD сняли образ с проблемного раздела. Если кто может помочь достать оттуда данные, готов предоставить доступ к нему.



Что такое '${ABI}' в контексте конфигурации пакетного менеджера, !*! Аноним, (Разное / FreeBSD) 16-Июл-20, 09:35  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Поясните, плз, на пальцах, что такое "${ABI}" в контексте конфигурации пакетного менеджера freebsd:


# $FreeBSD: releng/11.3/etc/pkg/FreeBSD.conf 347034 2019-05-02 23:59:44Z gjb $
#
# To disable this repository, instead of modifying or removing this file,
# create a /usr/local/etc/pkg/repos/FreeBSD.conf file:
#
#   mkdir -p /usr/local/etc/pkg/repos
#   echo "FreeBSD: { enabled: no }" > /usr/local/etc/pkg/repos/FreeBSD.conf
#

FreeBSD: {
  url: "pkg+http://pkg.FreeBSD.org/${ABI}/quarterly",
  mirror_type: "srv",
  signature_type: "fingerprints",
  fingerprints: "/usr/share/keys/pkg",
  enabled: yes
}

Пишу гайд по работе с poudriere, не могу грамотно сформулировать определение Application binary interface в контексте клиентских настроек для собственного репозитория.

Понятно будет, если определить так: "Переменная ${ABI} определяет версию и архитектуру ОС для подключаемого репозитория"?

Подскажите, диску конец?, !*! Володя Палочкин, (Аппаратура, Железо) 15-Июл-20, 00:52  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Сервер начал сыпать ошибки

[    6.551701] ata5: SATA max UDMA/133 abar m2048@0xfaffc000 port 0xfaffc300 irq 36
[   68.051420] ata5: SATA link up 3.0 Gbps (SStatus 123 SControl 300)
[   68.087551] ata5.00: ATA-10: ST500LX025-1U717D, SDM1, max UDMA/133
[   68.087557] ata5.00: 976773168 sectors, multi 16: LBA48 NCQ (depth 31/32), AA
[   68.136085] ata5.00: configured for UDMA/133
[126338.264585] ata5.00: exception Emask 0x10 SAct 0x2 SErr 0x4040000 action 0xe frozen
[126338.264648] ata5.00: irq_stat 0x00000040, connection status changed
[126338.264694] ata5: SError: { CommWake DevExch }
[126338.264728] ata5.00: failed command: WRITE FPDMA QUEUED
[126338.264771] ata5.00: cmd 61/88:08:90:fb:2a/01:00:3a:00:00/40 tag 1 ncq 200704 out
[126338.264870] ata5.00: status: { DRDY }
[126338.264901] ata5: hard resetting link
[126339.040573] ata5: SATA link up 3.0 Gbps (SStatus 123 SControl 300)
[126339.125092] ata5.00: configured for UDMA/133
[126339.135038] ata5: EH complete
[220236.558499] ata5.00: exception Emask 0x10 SAct 0x200000 SErr 0x4040000 action 0xe frozen
[220236.558565] ata5.00: irq_stat 0x00000040, connection status changed
[220236.558611] ata5: SError: { CommWake DevExch }
[220236.558645] ata5.00: failed command: WRITE FPDMA QUEUED
[220236.558703] ata5.00: cmd 61/10:a8:e0:bc:29/01:00:3a:00:00/40 tag 21 ncq 139264 out
[220236.558804] ata5.00: status: { DRDY }
[220236.558834] ata5: hard resetting link
[220237.333452] ata5: SATA link up 3.0 Gbps (SStatus 123 SControl 300)
[220237.417900] ata5.00: configured for UDMA/133
[220237.427852] ata5: EH complete
[220237.726489] ata5.00: exception Emask 0x10 SAct 0x0 SErr 0x4040000 action 0xe frozen
[220237.726556] ata5.00: irq_stat 0x00000040, connection status changed
[220237.726601] ata5: SError: { CommWake DevExch }
[220237.726634] ata5.00: failed command: FLUSH CACHE EXT
[220237.726676] ata5.00: cmd ea/00:00:00:00:00/00:00:00:00:00/a0 tag 6
[220237.726767] ata5.00: status: { DRDY }
[220237.726798] ata5: hard resetting link
[220238.452412] ata5: SATA link up 3.0 Gbps (SStatus 123 SControl 300)
[220238.536978] ata5.00: configured for UDMA/133
[220238.536985] ata5.00: retrying FLUSH 0xea Emask 0x10
[220238.546996] ata5: EH complete
[220238.998500] ata5.00: exception Emask 0x10 SAct 0x0 SErr 0x4040000 action 0xe frozen
[220238.998559] ata5.00: irq_stat 0x00000040, connection status changed
[220238.998599] ata5: SError: { CommWake DevExch }
[220238.998627] ata5.00: failed command: FLUSH CACHE EXT
[220238.998663] ata5.00: cmd ea/00:00:00:00:00/00:00:00:00:00/a0 tag 3
[220238.998742] ata5.00: status: { DRDY }
[220238.998769] ata5: hard resetting link
[220239.722522] ata5: SATA link up 3.0 Gbps (SStatus 123 SControl 300)
[220239.807050] ata5.00: configured for UDMA/133
[220239.807056] ata5.00: retrying FLUSH 0xea Emask 0x10
[220239.817083] ata5: EH complete
[220536.194572] ata5: limiting SATA link speed to 1.5 Gbps
[220536.194581] ata5.00: exception Emask 0x10 SAct 0x20000000 SErr 0x4040000 action 0xe frozen
[220536.194645] ata5.00: irq_stat 0x00000040, connection status changed
[220536.194691] ata5: SError: { CommWake DevExch }
[220536.194725] ata5.00: failed command: WRITE FPDMA QUEUED
[220536.194768] ata5.00: cmd 61/38:e8:68:c3:29/01:00:3a:00:00/40 tag 29 ncq 159744 out
[220536.194867] ata5.00: status: { DRDY }
[220536.194947] ata5: hard resetting link
[220536.969462] ata5: SATA link up 1.5 Gbps (SStatus 113 SControl 310)
[220537.054018] ata5.00: configured for UDMA/133
[220537.063933] ata5: EH complete
[629728.378413] ata5.00: exception Emask 0x10 SAct 0x7ff8 SErr 0x4040000 action 0xe frozen
[629728.378479] ata5.00: irq_stat 0x00000040, connection status changed
[629728.378525] ata5: SError: { CommWake DevExch }
[629728.378558] ata5.00: failed command: WRITE FPDMA QUEUED
[629728.378602] ata5.00: cmd 61/08:18:48:ee:50/00:00:00:00:00/40 tag 3 ncq 4096 out
[629728.378700] ata5.00: status: { DRDY }
[629728.378727] ata5.00: failed command: WRITE FPDMA QUEUED
[629728.378770] ata5.00: cmd 61/08:20:80:ee:50/00:00:00:00:00/40 tag 4 ncq 4096 out
[629728.381953] ata5.00: status: { DRDY }
[629728.383570] ata5.00: failed command: WRITE FPDMA QUEUED
[629728.385135] ata5.00: cmd 61/08:28:a0:ee:50/00:00:00:00:00/40 tag 5 ncq 4096 out
[629728.388244] ata5.00: status: { DRDY }
[629728.389835] ata5.00: failed command: WRITE FPDMA QUEUED
[629728.391386] ata5.00: cmd 61/08:30:b0:ee:50/00:00:00:00:00/40 tag 6 ncq 4096 out
[629728.394467] ata5.00: status: { DRDY }
[629728.396013] ata5.00: failed command: WRITE FPDMA QUEUED
[629728.397554] ata5.00: cmd 61/08:38:20:ee:50/00:00:00:00:00/40 tag 7 ncq 4096 out
[629728.400591] ata5.00: status: { DRDY }
[629728.402127] ata5.00: failed command: WRITE FPDMA QUEUED
[629728.403667] ata5.00: cmd 61/38:40:90:d8:2b/01:00:3a:00:00/40 tag 8 ncq 159744 out
[629728.406745] ata5.00: status: { DRDY }
[629728.408295] ata5.00: failed command: WRITE FPDMA QUEUED
[629728.409788] ata5.00: cmd 61/08:48:e8:ee:50/00:00:00:00:00/40 tag 9 ncq 4096 out
[629728.412851] ata5.00: status: { DRDY }
[629728.414427] ata5.00: failed command: WRITE FPDMA QUEUED
[629728.415972] ata5.00: cmd 61/10:50:00:ef:50/00:00:00:00:00/40 tag 10 ncq 8192 out
[629728.419003] ata5.00: status: { DRDY }
[629728.420487] ata5.00: failed command: WRITE FPDMA QUEUED
[629728.422047] ata5.00: cmd 61/08:58:40:ef:50/00:00:00:00:00/40 tag 11 ncq 4096 out
[629728.425093] ata5.00: status: { DRDY }
[629728.426634] ata5.00: failed command: WRITE FPDMA QUEUED
[629728.428130] ata5.00: cmd 61/08:60:58:ef:50/00:00:00:00:00/40 tag 12 ncq 4096 out
[629728.431103] ata5.00: status: { DRDY }
[629728.432654] ata5.00: failed command: WRITE FPDMA QUEUED
[629728.434143] ata5.00: cmd 61/08:68:68:ef:50/00:00:00:00:00/40 tag 13 ncq 4096 out
[629728.437166] ata5.00: status: { DRDY }
[629728.438703] ata5.00: failed command: WRITE FPDMA QUEUED
[629728.440174] ata5.00: cmd 61/08:70:e0:ee:50/00:00:00:00:00/40 tag 14 ncq 4096 out
[629728.443112] ata5.00: status: { DRDY }
[629728.444625] ata5: hard resetting link
[629729.167365] ata5: SATA link up 1.5 Gbps (SStatus 113 SControl 310)
[629729.251889] ata5.00: configured for UDMA/133
[629729.261837] ata5: EH complete
[1008318.481868] ata5.00: exception Emask 0x50 SAct 0x40000 SErr 0x4040800 action 0xe frozen
[1008318.483532] ata5.00: irq_stat 0x00000040, connection status changed
[1008318.485107] ata5: SError: { HostInt CommWake DevExch }
[1008318.486659] ata5.00: failed command: WRITE FPDMA QUEUED
[1008318.488217] ata5.00: cmd 61/78:90:48:80:29/03:00:3a:00:00/40 tag 18 ncq 454656 out
[1008318.491241] ata5.00: status: { DRDY }
[1008318.492763] ata5: hard resetting link
[1008319.267889] ata5: SATA link up 1.5 Gbps (SStatus 113 SControl 310)
[1008319.352416] ata5.00: configured for UDMA/133
[1008319.362335] ata5: EH complete
[1026918.670513] ata5.00: exception Emask 0x10 SAct 0x1c000 SErr 0x4040000 action 0xe frozen
[1026918.672245] ata5.00: irq_stat 0x00000040, connection status changed
[1026918.673823] ata5: SError: { CommWake DevExch }
[1026918.675359] ata5.00: failed command: WRITE FPDMA QUEUED
[1026918.676932] ata5.00: cmd 61/08:70:80:ee:50/00:00:00:00:00/40 tag 14 ncq 4096 out
[1026918.679986] ata5.00: status: { DRDY }
[1026918.681511] ata5.00: failed command: WRITE FPDMA QUEUED
[1026918.683025] ata5.00: cmd 61/08:78:20:ee:50/00:00:00:00:00/40 tag 15 ncq 4096 out
[1026918.686169] ata5.00: status: { DRDY }
[1026918.687694] ata5.00: failed command: WRITE FPDMA QUEUED
[1026918.689258] ata5.00: cmd 61/38:80:50:43:2b/01:00:3a:00:00/40 tag 16 ncq 159744 out
[1026918.692319] ata5.00: status: { DRDY }
[1026918.693904] ata5: hard resetting link
[1026919.416467] ata5: SATA link up 1.5 Gbps (SStatus 113 SControl 310)
[1026919.501287] ata5.00: configured for UDMA/133
[1026919.511171] ata5: EH complete
[1057519.816837] ata5.00: exception Emask 0x10 SAct 0x800000 SErr 0x4040000 action 0xe frozen
[1057519.818541] ata5.00: irq_stat 0x00000040, connection status changed
[1057519.820197] ata5: SError: { CommWake DevExch }
[1057519.821794] ata5.00: failed command: WRITE FPDMA QUEUED
[1057519.823378] ata5.00: cmd 61/10:b8:c8:88:2a/01:00:3a:00:00/40 tag 23 ncq 139264 out
[1057519.826524] ata5.00: status: { DRDY }
[1057519.828123] ata5: hard resetting link
[1057520.601721] ata5: SATA link up 1.5 Gbps (SStatus 113 SControl 310)
[1057520.686300] ata5.00: configured for UDMA/133
[1057520.696214] ata5: EH complete


Диску конец или блоку питания?

zimbra web доступ, !*! Школьный админ, (Почта / Linux) 10-Июл-20, 18:13  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Приветсвую!
Дали задание починить Зимбру. С ней имел дело давно и мало осталось в памяти.
Письма приходят и уходят, доступ по имап к ящикам есть.
Работает даже веб доступ к админке.
Но остовной веб доступ - не работает.
При запросе https://мой_сервер адресную строку меняет на
https://мой_сервер/public/мой_сервер и выдает ошибку 404.
Если положить в jettydistribution9.3.5.v20151012/webapps/zimbra/public/ какой-нибудь html файл и задать https://мой_сервер/public/файл, то содержание файла печатает.
Прокси и мемкэш отключены.
Зимбра 8.7.11 на Центоси 6.
Спасибо, если кто откликнется.
загрузочные флешки и iso образы, !*! Isothiocyanate, (Системное и пользовательское ПО / Linux) 08-Июл-20, 20:39  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Добрый день!

Подскажите пожалуйста, почему загрузочную флешку для Windows XP x32 SP3 надо делать с iso диска через Rufus,
почему dd if=/home/user1/WXP.iso of=/dev/sdb1 не приносит желаемого результата
dd if=/dev/cdrom of=/dev/sdb1  так же - флешка не явлется загрузочной.

Я так понимаю, что тут важна ФС на флешке (NTFS) и запись bootable in MBR?
Поскольку FAT32 и dd результата не дали.

В то же время, образ Gparted i686 нормально записывается Rufus с матюком на то что лучше использовать ISO режим а не dd и нормально работает. При этом образ Gparted - гибридный, в основе debian linux live cd.

Где можно найти информацию, в каких случаях какую утилиту использовать для создания загрузочных флешек?
Для виндовс систем и для линукс систем?
В чем разница между обычным iso и гибридным?
Можно ли всегда использовать dd но со специальными параметрами о которых я не знаю?

Имя интерфейса в качестве параметра фильтрации пакетов pfSense, !*! trng, (Firewall, Фильтрация пакетов / FreeBSD) 24-Июн-20, 18:54  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Здравствуйте,

Не могу понять аналогию для одного и того же правила в iptables и pfSense.

Правило в iptables:

# Enable LAN to WAN forward
iptables -A FORWARD -i $LANiface -o $WANiface -j ACCEPT


При этом в правилах файровола pfSense нет понятия "output interface".
source/destination - это ip-адреса из соответствующих полей заголовка ip-пакета попавшего в фильтр.

Опция
pfctl -i имя_интерфейса
это не фильтр по источниюку/приемнику пакета, а привязка правила к определенному интерфейсу (без привязки к направлению движения).


Понятно что в pfSense то же самое реализуется но другими правилами (используя source/destination).
Непонятно почему в pf нельзя фильровать пакеты по "получателю" в виде интерфейса, а не в виде ip-адреса.

 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру