The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Создать новую тему
 - Свернуть нити
Пометить прочитанным
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |  
Подсказка: Для сортировки сообщений в нити по дате нажмите "Сортировка по времени, UBB".
Форум Открытые системы на сервере
EXIM Пересылка одному из списка, !*! DeadMorose, (Почта / FreeBSD) 30-Июн-21, 15:45  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Попросите менеджера уточнить ТЗ и бюджет Разработка нового функционала почтовика, universite (ok), 21:34 , 30-Июн-21 (1) !*!
  • Звучит как бред, поэтому может быть, объясните, чего именно желаете добиться так, Аноним (2), 22:42 , 30-Июн-21 (2) !*!
  • DeadMorose не слушайте весь этот бред про доработку exim, или установку CRM Все, !*! Тот самый (?), 20:01 , 01-Июл-21 (9)
    DeadMorose не слушайте весь этот бред про доработку exim, или установку CRM. Все решается значительно проще - через конфиг exim (весь необходимый функционал уже есть)

    Детально прорабатывать команды я не буду (сами справитесь). Предлагаю общую идею.

    Таблица - id(порядковый номер),address(e-mail),is_current(должен получить текущее письмо) подойдет.

    сообщить модератору +/ответить
    • 1 Потребуется создать новый транспорт Например delivery_rr driver , !*! Тот самый (?), 20:12 , 01-Июл-21 (10)
      1) Потребуется создать новый транспорт. Например:

      delivery_rr:
        driver                = pipe
        command               = /usr/sbin/dovecot/deliver -d "${lookup sqlite \
                                {SELECT address FROM table WHERE is_current=1;}}"
        log_output            = true
        return_output         = false
        delivery_date_add     = true
        envelope_to_add       = true
        return_path_add       = true

      Размещение этого блока в секции "begin transports" значения не имеет.
      Я использую Dovecot deliver в качестве LDA. Доставку легко можно изменить на Exim LDA (сами справитесь)

      сообщить модератору +/ответить
    • 2 Создаем роутер для получателя mail_rr domain com round_robin driver accep, !*! Тот самый (?), 20:38 , 01-Июл-21 (11)
      2) Создаем роутер для получателя mail_rr@domain.com:

      round_robin:
        driver = accept
        domains = +local_domains
        local_parts = mail_rr
        condition = ${lookup sqlite {UPDATE table SET is_current=1 WHERE bla_bla;} {yes} {yes}}
        condition = ${lookup sqlite {UPDATE table ........} {yes} {yes}}
        transport = delivery_rr
        no_verify
        no_more

      Этот роутер нужно разместить в секции "begin routers" непосредственно ПЕРЕД финальной доставкой почты (обычно local_user), т.к. для роутеров порядок имеет значение

      Т.к. роутеры на этапе приема запускаются дважды (при проверке и при доставке) мы указываем no_verify (не запускать при проверке), что-бы исключить двойное срабатывание.

      После срабатывания этого роутера нормальная (local_user) доставка уже не нужна - используем no_more

      сообщить модератору +/ответить
      • Самое интересноеcondition lookup sqlite UPDATE table SET is_current 1 WHERE, !*! Тот самый (?), 20:49 , 01-Июл-21 (12)
        Самое интересное

        condition = ${lookup sqlite {UPDATE table SET is_current=1 WHERE bla_bla;} {yes} {yes}}
        condition = ${lookup sqlite {UPDATE table ........} {yes} {yes}}


        Это по логике - условие для срабатывания роутера. НО, финальные {yes} {yes} делают эти условия всегда истинными. Таким образом здесь по сути не проверяются условия, а исполняются SQL манипуляции над базой.

        Таких condition = ${lookup sqlite {SQL statement} {yes} {yes}} в роутере может быть много

        Сделать циклический перебор поля is_current=1 после каждого срабатывания роутера (т.е. доставки) в таблице средствами SQL надеюсь сами сможете

        сообщить модератору +/ответить
      • Небольшое добавлениеТ к роутер round_robin мы исключили из предварительной пров, !*! Тот самый (?), 22:18 , 01-Июл-21 (13)
        Небольшое добавление

        Т.к. роутер round_robin мы исключили из предварительной проверки при получении, то в этом случае сработает проверка в local_user. А там проверяется физическое наличие почтового ящика. Т.е. у пользователя, для которого организуется циклическая пересылка (в нашел случае mail_rr@domain.com), обязательно должен быть локальный почтовый ящик (в него ни чего не будет попадать, но быть он должен)

        сообщить модератору +/ответить
        • а для чего он тогда протсо потому что так должно быть , !*! Ilugar (ok), 14:15 , 04-Июл-21 (15)
          > Небольшое добавление
          > Т.к. роутер round_robin мы исключили из предварительной проверки при получении, то в
          > этом случае сработает проверка в local_user. А там проверяется физическое наличие
          > почтового ящика. Т.е. у пользователя, для которого организуется циклическая пересылка
          > (в нашел случае mail_rr@domain.com), обязательно должен быть локальный почтовый ящик (в
          > него ни чего не будет попадать, но быть он должен)

          а для чего он тогда? протсо потому что так должно быть   ?

          сообщить модератору +/ответить
      • gt оверквотинг удален Сделал по аналогии с system_aliasesroundrobin_aliases , !*! DeadMorose (ok), 09:53 , 16-Авг-21 (16)
        >[оверквотинг удален]
        >   condition = ${lookup sqlite {UPDATE table ........} {yes} {yes}}
        >   transport = delivery_rr
        >   no_verify
        >   no_more
        > Этот роутер нужно разместить в секции "begin routers" непосредственно ПЕРЕД финальной доставкой
        > почты (обычно local_user), т.к. для роутеров порядок имеет значение
        > Т.к. роутеры на этапе приема запускаются дважды (при проверке и при доставке)
        > мы указываем no_verify (не запускать при проверке), что-бы исключить двойное срабатывание.
        > После срабатывания этого роутера нормальная (local_user) доставка уже не нужна - используем
        > no_more

        Сделал по аналогии с system_aliases

        roundrobin_aliases:
          driver = redirect
          allow_fail
          allow_defer
          data = ${lookup mysql{servers=post.******.ru; SELECT rrAliasAddress('${quote_mysql:$local_part@${domain}}')}{$value}fail}
          headers_remove = "Subject"
          headers_add = "Subject: $h_subject ${lookup mysql{SELECT address FROM rrAddresses WHERE id = (SELECT lastAddressId FROM rrAliases WHERE alias = '${local_part}@${domain}')}}"
          user = mailnull
          group = mail
          file_transport = address_file
          pipe_transport = address_pipe
          skip_syntax_errors
          no_verify

        Здесь rrAliasAddress - хранимая функция на сервере MySQL, в которой и происходит перебор адресов

        Кроме того, потребовалось добавить пользователей, которые всегда получают такие письма (ответственные за конкретные задачи), и соответственно пришлось добавлять в заголовок инфу о том, кто конкретно получил письмо

        CREATE DEFINER=`mail_admin`@`%` FUNCTION `rrAliasAddress`(rrAlias VARCHAR(128)) RETURNS varchar(128) CHARSET utf8
        BEGIN
            DECLARE aliasAddress VARCHAR(128);
            DECLARE StaticUsers VARCHAR(256);
            DECLARE curraliasId INT;
            DECLARE nextAddressId INT;
            DECLARE currAddressId INT;
            
            SET aliasAddress = (SELECT `address` FROM `rrAddresses` WHERE `id` = (SELECT `currentAddressId` FROM `rrAliases` WHERE `alias` = rrAlias));
            IF (aliasAddress IS NULL) THEN
                SET aliasAddress = '';
            ELSE
                SET curraliasId = (SELECT `id` FROM `rrAliases` WHERE `alias` = rrAlias);
                SET currAddressId = (SELECT `currentAddressId` FROM `rrAliases` WHERE `id` = curraliasId);
                SET nextAddressId = (SELECT MIN(`id`) FROM `rrAddresses` WHERE ((`aliasId` = curraliasId) AND (`id` > currAddressId)));
                IF (nextAddressId IS NULL) THEN
                    SET nextAddressId = (SELECT MIN(`id`) FROM `rrAddresses` WHERE `aliasId` = curraliasId);
                END IF;
                UPDATE `rrAliases` SET `currentAddressId` = nextAddressId, `lastAddressId` = currAddressId WHERE `id` = curraliasId;
            END IF;
            SET StaticUsers = (SELECT `userlist` FROM `rrStaticUsers` WHERE `id` = curraliasId);
            IF (StaticUsers IS NOT NULL) THEN
                SET aliasAddress = concat_ws(',', StaticUsers, aliasAddress);
            end if;
            RETURN aliasAddress;
        END

        Созданы 3 таблицы:
        rrAliases -
        id int(11) AI PK - идентификатор списка рассылки (1,2,3..... )
        alias varchar(128) - адрес списка рассылки (типа sales@ourcompany.ru) обязательно должен существовать и не быть пустым!
        currentAddressId int(11) - идентификатор получателя следующего письма
        lastAddressId int(11) - идентификатор получателя предыдущего письма

        rrAddresses -
        id int(11) AI PK - идентификатор получателя (нумерация сквозная для всех списков)
        aliasId int(11) - идентификатор списка рассылки
        address varchar(128) - e-mail получателя

        rrStaticUsers -
        id int(11) PK - идентификатор списка рассылки
        userlist varchar(256) - список "руководителей", через запятую

        сообщить модератору +/ответить
  • В Exim это делается элементарно в одностроковое выражение или в несколько строк , !*! xm (ok), 23:28 , 21-Авг-21 (17)
    > Появилась задача настроить Exim так, чтобы в одной группе письма распределялись получателям
    > последовательно - первое письмо - первому в группе, второе - второму
    > и т.д.
    > В БД создал таблицу - id(порядковый номер),address(e-mail),is_current(должен получить
    > текущее письмо)

    В Exim это делается элементарно в одностроковое выражение или в несколько строк роутером redirect.
    Всё таки Тьюринг-полный язык под капотом.

    сообщить модератору +/ответить


Не презапускается антиспам zimbra, !*! pehser, (Почта) 17-Авг-21, 09:34  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
keepalived (1.3.* vs 2.0.*), !*! igor, (Др. сетевые сервисы / Linux) 11-Авг-21, 17:35  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • https github com acassen keepalived issues 1100обновить до 2 0 11, !*! Ann None (?), 19:47 , 11-Авг-21 (1)
    > В версии keepalived 1.3.2 сервер с ролью MASTER при старте сразу переходит
    > в MASTER, указывая в логе
    > Entering MASTER state.
    > В версии keepalived 2.0.10 сервер с ролью MASTER при старте сначала переходит
    > в BAXCKUP, а затем переходит в MASTER, указывая в логе
    > Entering BACKUP state (init).
    > Entering MASTER state.
    > Можно ли поведение версии 2.0 настроить как в версии 1.3 ?

    https://github.com/acassen/keepalived/issues/1100
    обновить до 2.0.11

    сообщить модератору +/ответить
    • Данный фикс исправляет переключение в FAULT, т е не для моей проблемы Я провери, !*! igor (??), 15:28 , 12-Авг-21 (2)
      >> В версии keepalived 1.3.2 сервер с ролью MASTER при старте сразу переходит
      >> в MASTER, указывая в логе
      >> Entering MASTER state.
      >> В версии keepalived 2.0.10 сервер с ролью MASTER при старте сначала переходит
      >> в BAXCKUP, а затем переходит в MASTER, указывая в логе
      >> Entering BACKUP state (init).
      >> Entering MASTER state.
      >> Можно ли поведение версии 2.0 настроить как в версии 1.3 ?
      > https://github.com/acassen/keepalived/issues/1100
      > обновить до 2.0.11

      Данный фикс исправляет переключение в FAULT, т.е. не для моей проблемы.
      Я проверил, поставил 2.0.11. Результат печальный:
      Thu Aug 12 15:25:41 2021: Starting Keepalived v2.0.11 (01/06,2019), git commit v2.0.10-75-g40afb8e+
      ...
      Thu Aug 12 15:25:41 2021: (proxy_ip1) Entering BACKUP STATE (init)
      Thu Aug 12 15:25:41 2021: VRRP sockpool: [ifindex(2), family(IPv4), proto(112), unicast(0), fd(11,12)]
      Thu Aug 12 15:25:44 2021: (proxy_ip1) Receive advertisement timeout
      Thu Aug 12 15:25:44 2021: (proxy_ip1) Entering MASTER STATE

      Данное поведение изменилось с версии 1.4.3.
      Так что вопрос остался не решенным.

      сообщить модератору +/ответить
Не работает tcp в pptp-туннеле после nat, !*! kapunov81, (Маршрутизация, NAT / FreeBSD) 06-Июл-21, 14:06  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Хм Нихрена не понятно НАН на приватном интерфейсе Зачем в фаере чек стейт без , !*! Pahanivo пробегал (?), 23:14 , 06-Июл-21 (1)
    Хм. Нихрена не понятно.
    НАН на приватном интерфейсе?
    Зачем в фаере чек стейт без кипа?
    То про eth1, то про ng0.
    И шо за манера вместо текущих правил выкидывать командник их создания?

    сообщить модератору +/ответить
    • По порядку НАН на приватном интерфейсе - В итоге nat будет работать наружу в , !*! kapunov81 (?), 08:03 , 07-Июл-21 (2)
      > Хм. Нихрена не понятно.
      > НАН на приватном интерфейсе?
      > Зачем в фаере чек стейт без кипа?
      > То про eth1, то про ng0.
      > И шо за манера вместо текущих правил выкидывать командник их создания?

      По порядку.
      "НАН на приватном интерфейсе?" - В итоге nat будет работать наружу в Инет с белого ip. Т.к. у vpn-клиента не работает tcp через nat, то для нахождения проблемы я смоделировал ситуацию с nat-ом на приватном интерфейсе - на нем я могу пускать клиента ко внутренним адресам и через nat, и без него, а также слушать tcpdump-ом на интерфейсе сервера к которому обращается клиент. Я убедился, что проблема именно в нате - без него работают и tcp и udp. Только включаешь nat для трафика pptp-клиента (кстати, пробовал и с L2TP/IPSEC), как tcp перестает работать в отличие от udp, пинг на стороне клиента продолжает работать.
      "Зачем в фаере чек стейт без кипа?" & "И шо за манера вместо текущих правил выкидывать командник их создания?" - nat делал по методичке https://forums.freebsd.org/threads/ipfw-share-internet.62149/, удаляя все что мне было не нужно. Насчет чек-стейта у меня уверенности не было, и я его оставил, он ведь не мешает? В этой же методичке все листинги настроек ipfw выложены именно как команды создания, если уж на официальном форуме Фряхи это не считается плохим тоном, то и здесь можно так поступать.
      "То про eth1, то про ng0" - ng0 я упомянул только в том контексте, что это крайний к клиенту интерфейс у vpn-сервера, создающийся динамически при создании туннеля, и я убедился, что tcp-пакеты идут к клиенту через этот интерфейс, т.е. проблема не в маршрутизации.

      сообщить модератору +/ответить
  • подключи модули ppptp_nat и другие, инет в руки, !*! BarS (??), 11:30 , 07-Июл-21 (3) –1
    подключи модули ppptp_nat и другие, инет в руки
    сообщить модератору –1 +/ответить
  • когда я последний раз подобное смотрел у меня tcp на связке jail ipfw nat не зар, !*! Ann None (?), 12:23 , 07-Июл-21 (4)
    когда я последний раз подобное смотрел у меня tcp на связке jail+ipfw nat не заработал. перенес nat в pf и забил.
    сообщить модератору +/ответить
  • Выглядит так, что вы забыли выключить TSO на eth1 , !*! butcher (ok), 15:29 , 11-Авг-21 (5)
    > клетки напрямую в Инет через белый ip. Теперь пакеты от клиента
    > натятся внутренним адресом vpn-сервера и к 192.168.1.4 приходят будто-бы от 192.168.1.9.
    > UDP-протокол работает без проблем, пинг отрабатывает, а вот tcp работать после
    > nat не хочет. При этом пакеты ходят в обе стороны, но
    > на клиенте команда curl 192.168.1.4 не выдает ответ, будто-бы сервер не
    > отвечает, хотя tcpdump на крайнем к клиенту интерфейсе ng0 (создается при
    > подключении) показывает что пакеты клиенту идут.

    Выглядит так, что вы забыли выключить TSO на eth1.

    сообщить модератору +/ответить
Помогите настроить ftp сервер, !*! RAIN, (FTP / Linux) 16-Июл-21, 09:35  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Postfix медленно принимает письма, !*! vlad357500, (Почта / Другая система) 11-Июн-21, 15:57  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]


dovecot auth: fatal master service child 992 killed, !*! qecer321, (Почта / FreeBSD) 05-Июл-21, 12:13  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Sendmail ограничения для списков рассылки, !*! DustpaN, (Почта / Linux) 23-Окт-20, 14:00  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
FreeBSD как объединить несколько томов в один логический том., !*! sergetv, (Файловые системы, диски / FreeBSD) 22-Июн-21, 15:44  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]


openvpn не подключается на win10. на линукс все ок., !*! lotric, (VPN) 29-Мрт-21, 11:25  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]


Postfix header_checks правила для входящего письма, !*! хонгильдон, (Почта / Linux) 15-Июн-21, 09:51  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • В постфикс - никак, только через какой-нибудь самопальный обработчик pre-queueНу, !*! Аноним (1), 12:21 , 15-Июн-21 (1)
    > Приветствуй, подскажите как в постфиксе сделать правило для входящих писем с определенного
    > домен. Нужно входящие письмо сначала перенаправить на определенный адрес, а потом
    > его же реджектнуть с ответом о том что письмо не может
    > быть доставлено.

    В постфикс - никак, только через какой-нибудь самопальный обработчик pre-queue

    Ну или хитровы...мученная конструкция из двух постфиксов, фронт делает bcc и релеит почту на бэк-энд, бэк-энд делает reject... но это чистая теория, что на практике из этого выйдет - без понятия и даже пробовать не хочу.

    Если это такая страховка от потери важной корреспонденции - значит, надо менять стратегию работы с почтой. Либо вы следуете путем минимизации спама, либо путем минимизации потерь легитимной почты, но в последнем случае режект вам не друг, только баллы/весовые коэффициенты и т.п...

    Кстати, какоq-нибудь amavis или spamassasin возможно справится с вашей задачей в том виде, в каком она поставлена.

    сообщить модератору +/ответить
    • gt оверквотинг удален Спасибо за ответ, думал может я где то не дочитал до кон, !*! хонгильдон (?), 15:17 , 15-Июн-21 (2)
      >[оверквотинг удален]
      > Ну или хитровы...мученная конструкция из двух постфиксов, фронт делает bcc и релеит
      > почту на бэк-энд, бэк-энд делает reject... но это чистая теория, что
      > на практике из этого выйдет - без понятия и даже пробовать
      > не хочу.
      > Если это такая страховка от потери важной корреспонденции - значит, надо менять
      > стратегию работы с почтой. Либо вы следуете путем минимизации спама, либо
      > путем минимизации потерь легитимной почты, но в последнем случае режект вам
      > не друг, только баллы/весовые коэффициенты и т.п...
      > Кстати, какоq-нибудь amavis или spamassasin возможно справится с вашей задачей в том
      > виде, в каком она поставлена.

      Спасибо за ответ, думал может я где то не дочитал до конца маны по постфиксу.
      Спасибо большое, вопрос снят!

      сообщить модератору +/ответить
  • fhgfu, !*! amantha (ok), 06:33 , 29-Июн-21 (3)
Проблема с разделом LVM и суперблоками, !*! Murano, (Файловые системы, диски / Linux) 17-Июл-20, 11:53  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Есть мнение, что похерилась-таки partition table Теперь dev sda3 показывает в , ACCA (ok), 15:55 , 17-Июл-20 (1) !*!
  • gt оверквотинг удален Хотя бы листинг старой разметки есть Если пересоздать р, !*! Павел Отредиез (?), 11:14 , 18-Июл-20 (2)
    >[оверквотинг удален]
    > закончилось место на var. Обычная проблема, которая решается расширением диска.
    > На одной из машин произошло что-то непонятное. При создании раздела через fdisk
    > (который должен был стать sda4) похерился sda3, который как раз физический
    > том для vg1-varfs (/var). В итоге последний после ребута просто вывалился
    > и не отображался в /dev/mapper/. Эту проблему я решил. Тут просто
    > сбился по непонятным причинам uuid диска.
    > В в /dev/mapper/ появился varfs. Но он не хочет монтироваться, выдавая это:
    > "wrong fs type, bad option, bad superblock on /dev/mapper/vg1-varfs".
    > fsck оказался бесполезен. Через DD сняли образ с проблемного раздела. Если кто
    > может помочь достать оттуда данные, готов предоставить доступ к нему.

    Хотя бы листинг старой разметки есть? Если пересоздать разделы как было, есть шанс. Uuid раздела изменился потому что он изменился.

    сообщить модератору +/ответить
  • Обычная проблема закончилось место решается расширением конкретного раздела, l, !*! Licha Morada (ok), 07:07 , 20-Июл-20 (3)
    > есть одна группа томов LVM. На ней своп, корень и var. Недавно
    > закончилось место на var. Обычная проблема, которая решается расширением диска.

    Обычная проблема "закончилось место" решается расширением конкретного раздела, lvresize.
    Не наезд, просто чтобы понять что там было. У вас закончилось место на Volume Group, но было неразмеченное место на sda, и вы решили его заюзать в качестве дополнительного Phisical Volume?

    > На одной из машин произошло что-то непонятное.

    А машин что, несколько? Одинаковых? Если так, то посмотрите на соседней, где на самом деле начинаются и заканчиваются разделы.

    > При создании раздела через fdisk
    > (который должен был стать sda4) похерился sda3, который как раз физический
    > том для vg1-varfs (/var).

    Или ищите начало и конец своего sda3 с помощью tesdisk-а.
    https://www.cgsecurity.org/wiki/TestDisk

    > В итоге последний после ребута просто вывалился
    > и не отображался в /dev/mapper/. Эту проблему я решил. Тут просто
    > сбился по непонятным причинам uuid диска.

    Уже выше написали. Имеет смысл предположить, что не "просто сбился" и не решил, а теперь там не блочное устройство со слегка побитой файловой системой, а полное недоразумение. И откатиться обратно, до состояния "похерился sda3", чтобы диагностировать и испарвлять правильно.

    сообщить модератору +/ответить
  • gt оверквотинг удален Коллеги, спасибо большое всем, кто присоединился к теме , !*! Murano (ok), 07:15 , 20-Июл-20 (4)
    >[оверквотинг удален]
    > закончилось место на var. Обычная проблема, которая решается расширением диска.
    > На одной из машин произошло что-то непонятное. При создании раздела через fdisk
    > (который должен был стать sda4) похерился sda3, который как раз физический
    > том для vg1-varfs (/var). В итоге последний после ребута просто вывалился
    > и не отображался в /dev/mapper/. Эту проблему я решил. Тут просто
    > сбился по непонятным причинам uuid диска.
    > В в /dev/mapper/ появился varfs. Но он не хочет монтироваться, выдавая это:
    > "wrong fs type, bad option, bad superblock on /dev/mapper/vg1-varfs".
    > fsck оказался бесполезен. Через DD сняли образ с проблемного раздела. Если кто
    > может помочь достать оттуда данные, готов предоставить доступ к нему.

    Коллеги, спасибо большое всем, кто присоединился к теме и ответил. Проблему я решил. Если кому интересно как, то отвечаю:

    Через DD сделал дамп всего раздела, который не монтировался. После этого установил testdisk, через него подключился к образу и увидел все файлы, которые нас интересовали. Затем уже просто их скопировал на нормальный диск средствами testdisk.

    Все данные в полном порядке. Кроме того, tesdisk еще и кучу удаленных файлов помог увидеть. Вообще, в этом не было необходимости, просто оказалось приятным бонусом:)

    сообщить модератору +/ответить
    • gt оверквотинг удален Ребята у меня есть вопрос На всякий случай хочу знать, , !*! penetrator (?), 20:02 , 10-Июн-21 (5)
      >[оверквотинг удален]
      >> может помочь достать оттуда данные, готов предоставить доступ к нему.
      > Коллеги, спасибо большое всем, кто присоединился к теме и ответил. Проблему я
      > решил. Если кому интересно как, то отвечаю:
      > Через DD сделал дамп всего раздела, который не монтировался. После этого установил
      > testdisk, через него подключился к образу и увидел все файлы, которые
      > нас интересовали. Затем уже просто их скопировал на нормальный диск средствами
      > testdisk.
      > Все данные в полном порядке. Кроме того, tesdisk еще и кучу удаленных
      > файлов помог увидеть. Вообще, в этом не было необходимости, просто оказалось
      > приятным бонусом:)

      Ребята у меня есть вопрос. На всякий случай хочу знать, до того как грянет гром.

      У меня есть 3 PV, 1 VG, 1LV на всю емкость.

      Если похерится 1 PV скажем так самый последний, который допустим еще не успел записаться данными, то я смогу получить доступ к файлам, которые на первых двух PV?

      Или скажем если даже 3ий PV тоже с файлами, и я их тереяю, но получаю доступ к первым двум.

      Собственно 1) возможно это? 2) как это правильно сделать? 3) Если не с LVM, то какие варианты?

      сообщить модератору +/ответить
      • Что именно правильно сделать - чисто конкретно что именно Самое правильное - бек, !*! Анто Нимно (?), 20:14 , 14-Июн-21 (7)
        > Собственно 1) возможно это? 2) как это правильно сделать? 3) Если не
        > с LVM, то какие варианты?

        Что именно правильно сделать - чисто конкретно что именно?

        Самое правильное - бекапы. Бекап агент сам приходит снаружи. С контролем, что бекапы работают, с проверяемым умением восстанавливаться. В идеале в две независымые точки, но ту уж у кого сколько денег.

        LVM специально придуман чтобы не знать и не думать как оно делит данные между физ.томами.

        Если нужно дублирование на ходу, то, вероятно, LVM поверх MD RAID 1. Спорна способность LVM работать как RAID-1, для ценных вещей может и не стоит.

        В любом случае: LVM и RAID сделаны не для надёжности, а для упрощения непрерывности. Надёжность (цена получения данных обратно) и непрерывность (возможность не останавливать сервер до зарплаты для покупки замены диска) - разные вещи.

        Самое правильное - правильно сделанный бекап.

        сообщить модератору +/ответить
        • gt оверквотинг удален ну я же совсем не это спрашивал, я спрашивал как работае, !*! penetrator (?), 00:06 , 15-Июн-21 (8)
          >[оверквотинг удален]
          > LVM специально придуман чтобы не знать и не думать как оно делит
          > данные между физ.томами.
          > Если нужно дублирование на ходу, то, вероятно, LVM поверх MD RAID 1.
          > Спорна способность LVM работать как RAID-1, для ценных вещей может и
          > не стоит.
          > В любом случае: LVM и RAID сделаны не для надёжности, а для
          > упрощения непрерывности. Надёжность (цена получения данных обратно) и непрерывность (возможность
          > не останавливать сервер до зарплаты для покупки замены диска) - разные
          > вещи.
          > Самое правильное - правильно сделанный бекап.

          ну я же совсем не это спрашивал, я спрашивал как работает LVM в подобных случаях, и можно ли восстановить часть данных после потери PV

          сообщить модератору +/ответить
          • gt оверквотинг удален Обычно можно Но я только учусь, поэтому послушаю умных , !*! Ilugar (ok), 17:55 , 21-Июн-21 (9)
            >[оверквотинг удален]
            >> Спорна способность LVM работать как RAID-1, для ценных вещей может и
            >> не стоит.
            >> В любом случае: LVM и RAID сделаны не для надёжности, а для
            >> упрощения непрерывности. Надёжность (цена получения данных обратно) и непрерывность (возможность
            >> не останавливать сервер до зарплаты для покупки замены диска) - разные
            >> вещи.
            >> Самое правильное - правильно сделанный бекап.
            > ну я же совсем не это спрашивал, я спрашивал как работает LVM
            > в подобных случаях, и можно ли восстановить часть данных после потери
            > PV

            Обычно можно. Но я только учусь, поэтому послушаю умных людей )

            сообщить модератору +/ответить
          • Можно восстановить Алгоритм едйствий примерно такой - создать дамп остатков,- з, !*! Анто Нимно (?), 20:49 , 21-Июн-21 (10)
            > ну я же совсем не это спрашивал, я спрашивал как работает LVM
            > в подобных случаях, и можно ли восстановить часть данных после потери
            > PV

            Можно восстановить. Алгоритм едйствий примерно такой:
            - создать дамп остатков,
            - запустить ПО той или иной степени продвинутости, автоматизирующее писк известных структур данных,
            - из всех найденных вариантов трактовки скриптами остатков выбрать перспективные и скопировать нужные файлы.

            Фокус в том, что структуры данных на диске - таблицы разделов, заголовки файловых систем, RAID, LVM - можно определять по известным последовательностям байтов и структуры нередко дублированы by design. Дальше это анализируют и пытаются склеить. Делают автоматически, иначе титаническая работа.

            А в остальном кому как повезёт, смотря как структуры данных отлегли по дискам, сколько пропало.

            Есть варианты настройки, когда потери меньше. Но эти меньше-больше отчасти неохватны, неопределённы. Как правило для точной оценки потери нужна какая-то инфа со стороны. В идеале такая инфа и есть бэкапы. У кого-то это могут быть какие-то индексы и хэши. У кого-то точно объём потерь не оценить.


            Поэтому: данные ложатся условно непредсказуемо (отчасти), восстановить можно ооочень много даже просто автоматами, но трудно абсолютно точно определить где потери.

            Воссатновить можно очень много, но правильнее заранее делать копии и не тратить время.

            сообщить модератору +/ответить
            • gt оверквотинг удален Спасибо, я понял Надо искать варианты, LVM слишком долг, !*! penetrator (?), 03:11 , 24-Июн-21 (11)
              >[оверквотинг удален]
              > дискам, сколько пропало.
              > Есть варианты настройки, когда потери меньше. Но эти меньше-больше отчасти неохватны, неопределённы.
              > Как правило для точной оценки потери нужна какая-то инфа со стороны.
              > В идеале такая инфа и есть бэкапы. У кого-то это могут
              > быть какие-то индексы и хэши. У кого-то точно объём потерь не
              > оценить.
              > Поэтому: данные ложатся условно непредсказуемо (отчасти), восстановить можно ооочень
              > много даже просто автоматами, но трудно абсолютно точно определить где потери.
              > Воссатновить можно очень много, но правильнее заранее делать копии и не тратить
              > время.

              Спасибо, я понял. Надо искать варианты, LVM слишком долго будет восстанавливаться.

              сообщить модератору +/ответить
  • R-Studio и - сам , !*! Анто Нимно (?), 20:04 , 14-Июн-21 (6)


Где взять asterisk-gui FreeBSD 11, !*! cray, (VoIP / FreeBSD) 20-Июн-21, 12:25  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]


Postfix от некоторых доменов долго приходит почта, !*! bear_cho, (Почта / Linux) 18-Июн-21, 09:18  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Попробуйте временно отключить проверку SPF, кажется она у вас как-то криво работ, !*! Аноним (1), 11:14 , 18-Июн-21 (1)
    > Jun 18 09:09:06 PostMan policyd-spf[7461]: Action: None: Text: None Reject action: 550
    > 5.7.23

    Попробуйте временно отключить проверку SPF, кажется она у вас как-то криво работает.

    сообщить модератору +/ответить
  • Найми нормального админа Не благодари Подсказка с таким куском лога без контекс, !*! муу (?), 19:44 , 18-Июн-21 (2)
    > Прошу помочь

    Найми нормального админа.
    Не благодари.

    Подсказка: с таким куском лога без контекста и конфигов всего что ты или кто-то-там по бложикам понастраивал - тебя могут только послать, в лучшем случае в гугл.

    сообщить модератору +/ответить
  • nslookup -q TXT amazonses com 8 8 8 8 amazonses com text v spf1 ip4 , !*! ipmanyak (ok), 14:25 , 21-Июн-21 (4)
    > Jun 18 09:09:05 PostMan postfix/smtpd[7452]: connect from a3-19.smtp-out.eu-west-1.amazonses.com[54.240.3.19]

    nslookup -q=TXT amazonses.com 8.8.8.8

    amazonses.com   text =

            "v=spf1 ip4:199.255.192.0/22 ip4:199.127.232.0/22 ip4:54.240.0.0/18 ip4:69.169.224.0/20 ip4:23.249.208.0/20 ip4:23.251.224.0/19 ip4:76.223.176.0/20 ip4:54.240.64.0/19 ip4:54.240.96.0/19 -all"

    54.240.3.19  входит в пул, указанный в spf - в 54.240.0.0/18  
    но ты выдаешь код Action: None: Text: None Reject action: 550 5.7.23 , за которым обычно еще идет текст , подобный этому:
    550 5.7.23 Message rejected due to: SPF fail - not authorized.

    То есть ты отшиваешь хост 54.240.3.19  по SPF, хотя  требования удовлетворены.
    Какой нэймсервер используешь для postfix?  Если это сервер прова, то они часто глючат. Попробуй сменить на серверы гугля 8.8.8.8  8.8.4.4  или яндекса  77.88.8.8, 77.88.8.1  

    сообщить модератору +/ответить
    • gt оверквотинг удален , !*! bear_cho (ok), 10:42 , 22-Июн-21 (5)
      >[оверквотинг удален]
      > ip4:54.240.64.0/19 ip4:54.240.96.0/19 -all"
      > 54.240.3.19  входит в пул, указанный в spf - в 54.240.0.0/18
      > но ты выдаешь код Action: None: Text: None Reject action: 550 5.7.23
      > , за которым обычно еще идет текст , подобный этому:
      > 550 5.7.23 Message rejected due to: SPF fail - not authorized.
      > То есть ты отшиваешь хост 54.240.3.19  по SPF, хотя  требования
      > удовлетворены.
      > Какой нэймсервер используешь для postfix?  Если это сервер прова, то они
      > часто глючат. Попробуй сменить на серверы гугля 8.8.8.8  8.8.4.4  
      > или яндекса  77.88.8.8, 77.88.8.1

      сообщить модератору +/ответить
    • gt оверквотинг удален Спасибо, помогло 8 8 8 8, !*! bear_cho (ok), 10:43 , 22-Июн-21 (6)
      >[оверквотинг удален]
      > ip4:54.240.64.0/19 ip4:54.240.96.0/19 -all"
      > 54.240.3.19  входит в пул, указанный в spf - в 54.240.0.0/18
      > но ты выдаешь код Action: None: Text: None Reject action: 550 5.7.23
      > , за которым обычно еще идет текст , подобный этому:
      > 550 5.7.23 Message rejected due to: SPF fail - not authorized.
      > То есть ты отшиваешь хост 54.240.3.19  по SPF, хотя  требования
      > удовлетворены.
      > Какой нэймсервер используешь для postfix?  Если это сервер прова, то они
      > часто глючат. Попробуй сменить на серверы гугля 8.8.8.8  8.8.4.4  
      > или яндекса  77.88.8.8, 77.88.8.1

      Спасибо, помогло 8.8.8.8

      сообщить модератору +/ответить
Очистка места на диске после удаления писем из почтового ящика, !*! Jonny_10101, (Файловые системы, диски / FreeBSD) 24-Май-21, 10:22  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
сборка rpm (nginx+modsecurity), !*! vanyadog, (Системное и пользовательское ПО / Linux) 14-Июн-21, 13:25  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]


tc не видит маркированные пакеты, !*! a7lan, (Квоты, ограничения, QoS) 06-Июн-21, 19:47  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Samba4.11 и WindowsXP не может зайти на сервер., !*! MCLXXV, (Samba, выделена в отдельный форум / FreeBSD) 04-Июн-21, 22:21  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Настройка лога в exim-е, !*! korbnik, (Почта / Linux) 28-Май-21, 11:26  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Обычно путь к этому прописывается в конфигах Я не сталкивался с этой программой, !*! Ilugar (ok), 10:34 , 31-Май-21 (1)
    > Добрый день!
    > Подскажите, пожалуйста, как настроить exim, чтобы эти сообщени
    > не записывались в лог exim-а?
    > 2021-05-28 08:30:55.085 [1315523] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:31:54.164 [1315548] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:32:54.471 [1315573] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:33:54.793 [1315597] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:34:54.258 [1315621] cwd=/ 2 args: /usr/sbin/exim -bpc
    > Короче команды exim-а выполненные в shell-е не записывать в лог.
    > Заранее спасибо. Борис.

    Обычно путь к этому прописывается в конфигах. Я не сталкивался с этой программой, но думаю что и даже практически уверен, что есть какой то основной конфиг, где описана запись в логи

    сообщить модератору +/ответить
  • man 8 exim и искать ключи -bpc , зачем они, кем используются Видимо надо запре, !*! Andrey (??), 09:16 , 01-Июн-21 (2)
    > Добрый день!
    > Подскажите, пожалуйста, как настроить exim, чтобы эти сообщени
    > не записывались в лог exim-а?
    > 2021-05-28 08:30:55.085 [1315523] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:31:54.164 [1315548] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:32:54.471 [1315573] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:33:54.793 [1315597] cwd=/ 2 args: /usr/sbin/exim -bpc
    > 2021-05-28 08:34:54.258 [1315621] cwd=/ 2 args: /usr/sbin/exim -bpc
    > Короче команды exim-а выполненные в shell-е не записывать в лог.
    > Заранее спасибо. Борис.

    man 8 exim
    и искать ключи "-bpc", зачем они, кем используются.
    Видимо надо запретить запускать exim с такими ключами.

    Вообще плохая практика задавать вопрос "почему в логах вот это" не приложив конфиг.

    сообщить модератору +/ответить
  • См https www exim org exim-html-current doc html spec_html ch-log_files htmla, !*! Licha Morada (ok), 21:08 , 02-Июн-21 (3)
    > чтобы эти сообщени не записывались в лог exim-а?
    > 2021-05-28 08:30:55.085 [1315523] cwd=/ 2 args: /usr/sbin/exim -bpc

    См. https://www.exim.org/exim-html-current/doc/html/spec_html/ch...

    arguments: This causes Exim to write the arguments with which it was called to the main log, preceded by the current working directory. This is a debugging feature...

    The logging does not happen if Exim has given up root privilege because it was called with the -C or -D options.

    сообщить модератору +/ответить
PFSense. Маршрутизация в удаленную сеть. Routed IPSec в PFSense, !*! _John_, (Маршрутизация, NAT / FreeBSD) 27-Май-21, 14:04  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • NAT , Аноним (1), 14:32 , 27-Май-21 (1) !*!
    • Это маршрутизируемый режим, после добавления статического маршрута записи в нат , !*! _John_ (ok), 14:36 , 27-Май-21 (2)
      >> Подскажите кто настраивал такое, что еще нужно для корректной работы?
      > NAT?

      Это маршрутизируемый режим, после добавления статического маршрута записи в нат он сам создает

      сообщить модератору +/ответить
      • Тогда больше ничего не нужно Смотри правила файрвола, смотри, создаются ли пресл, !*! Аноним (1), 16:50 , 27-Май-21 (3)
        >>> Подскажите кто настраивал такое, что еще нужно для корректной работы?
        >> NAT?
        > Это маршрутизируемый режим, после добавления статического маршрута записи в нат он сам
        > создает

        Тогда больше ничего не нужно.

        Смотри правила файрвола, смотри, создаются ли пресловутые динамические правила nat...


        сообщить модератору +/ответить
        • В файерволе вроде особо и ничего не нужно, запрещающих правил нет подходящих На, !*! _John_ (ok), 17:06 , 27-Май-21 (4)
          >>>> Подскажите кто настраивал такое, что еще нужно для корректной работы?
          >>> NAT?
          >> Это маршрутизируемый режим, после добавления статического маршрута записи в нат он сам
          >> создает
          > Тогда больше ничего не нужно.
          > Смотри правила файрвола, смотри, создаются ли пресловутые динамические правила nat...

          В файерволе вроде особо и ничего не нужно, запрещающих правил нет подходящих. Нат правила создаются. Даже не знаю куда копать(

          сообщить модератору +/ответить
          • А тогда еще дурацкий такой вопрос - хождение трафика между интерфейсами разрешен, !*! Аноним (1), 17:48 , 27-Май-21 (5)
            >> Тогда больше ничего не нужно.
            >> Смотри правила файрвола, смотри, создаются ли пресловутые динамические правила nat...
            > В файерволе вроде особо и ничего не нужно, запрещающих правил нет подходящих.
            > Нат правила создаются. Даже не знаю куда копать(

            А тогда еще дурацкий такой вопрос - хождение трафика между интерфейсами разрешено?
            А то тоже недавно голову сломал с vpn, когда забыл про gateway_enable="yes"


            сообщить модератору +/ответить
            • Хм, надо проверить Завтра с утра займусь Спасибо Надо проверить Завтра с утра, !*! John_ (?), 17:54 , 27-Май-21 (6)
              >>> Тогда больше ничего не нужно.
              >>> Смотри правила файрвола, смотри, создаются ли пресловутые динамические правила nat...
              >> В файерволе вроде особо и ничего не нужно, запрещающих правил нет подходящих.
              >> Нат правила создаются. Даже не знаю куда копать(
              > А тогда еще дурацкий такой вопрос - хождение трафика между интерфейсами разрешено?
              > А то тоже недавно голову сломал с vpn, когда забыл про gateway_enable="yes"

              Хм, надо проверить! Завтра с утра займусь. Спасибо!

              Надо проверить! Завтра с утра займусь! Спасибо!


              сообщить модератору +/ответить
              • Нет, не хочет Из своей локальной сети могу пропинговать только локальную сеть , !*! _John_ (ok), 12:58 , 28-Май-21 (7)
                >>>> Тогда больше ничего не нужно.
                >>>> Смотри правила файрвола, смотри, создаются ли пресловутые динамические правила nat...
                >>> В файерволе вроде особо и ничего не нужно, запрещающих правил нет подходящих.
                >>> Нат правила создаются. Даже не знаю куда копать(
                >> А тогда еще дурацкий такой вопрос - хождение трафика между интерфейсами разрешено?
                >> А то тоже недавно голову сломал с vpn, когда забыл про gateway_enable="yes"
                > Хм, надо проверить! Завтра с утра займусь. Спасибо!
                > Надо проверить! Завтра с утра займусь! Спасибо!

                Нет, не хочет...
                Из своей локальной сети могу пропинговать только локальную сеть заданную в настройках IPSec.
                С PFsense могу пропинговать и ресурсы в удаленной сети, но только с одного интерфейса - того, с которым сопряжен IPSec туннель

                сообщить модератору +/ответить
                • gt оверквотинг удален Не понятно зачем вообще создавать интерфейс и прописыват, !*! kobaspam (?), 16:29 , 02-Июн-21 (8)
                  >[оверквотинг удален]
                  >>>> Нат правила создаются. Даже не знаю куда копать(
                  >>> А тогда еще дурацкий такой вопрос - хождение трафика между интерфейсами разрешено?
                  >>> А то тоже недавно голову сломал с vpn, когда забыл про gateway_enable="yes"
                  >> Хм, надо проверить! Завтра с утра займусь. Спасибо!
                  >> Надо проверить! Завтра с утра займусь! Спасибо!
                  > Нет, не хочет...
                  > Из своей локальной сети могу пропинговать только локальную сеть заданную в настройках
                  > IPSec.
                  > С PFsense могу пропинговать и ресурсы в удаленной сети, но только с
                  > одного интерфейса - того, с которым сопряжен IPSec туннель

                  Не понятно зачем вообще создавать интерфейс и прописывать маршрутизацию. Если сосздавался site-by-site то при создание уже указывалисть локальная и удаленная подсеть и этого достаточно что бы все работало, при условия что "концы" туннеля в своих подсетях указаны как GW или как GW для удаленных сетей соотвественно?

                  сообщить модератору +/ответить
                  • gt оверквотинг удален Нет, дефолтный GW не в туннель В туннель только часть т, !*! _John_ (ok), 16:33 , 02-Июн-21 (9)
                    >[оверквотинг удален]
                    >> Нет, не хочет...
                    >> Из своей локальной сети могу пропинговать только локальную сеть заданную в настройках
                    >> IPSec.
                    >> С PFsense могу пропинговать и ресурсы в удаленной сети, но только с
                    >> одного интерфейса - того, с которым сопряжен IPSec туннель
                    > Не понятно зачем вообще создавать интерфейс и прописывать маршрутизацию. Если сосздавался
                    > site-by-site то при создание уже указывалисть локальная и удаленная подсеть и
                    > этого достаточно что бы все работало, при условия что "концы" туннеля
                    > в своих подсетях указаны как GW или как GW для удаленных
                    > сетей соотвественно?

                    Нет, дефолтный GW не в туннель. В туннель только часть трафика

                    сообщить модератору +/ответить
                    • gt оверквотинг удален Да не про это в локальной сети fpsence GW в удаленной, !*! kobaspam (?), 16:40 , 02-Июн-21 (10)
                      >[оверквотинг удален]
                      >>> Из своей локальной сети могу пропинговать только локальную сеть заданную в настройках
                      >>> IPSec.
                      >>> С PFsense могу пропинговать и ресурсы в удаленной сети, но только с
                      >>> одного интерфейса - того, с которым сопряжен IPSec туннель
                      >> Не понятно зачем вообще создавать интерфейс и прописывать маршрутизацию. Если сосздавался
                      >> site-by-site то при создание уже указывалисть локальная и удаленная подсеть и
                      >> этого достаточно что бы все работало, при условия что "концы" туннеля
                      >> в своих подсетях указаны как GW или как GW для удаленных
                      >> сетей соотвественно?
                      > Нет, дефолтный GW не в туннель. В туннель только часть трафика

                      Да не про это в локальной сети fpsence = GW? в удаленной подсети их девайс = GW? если да проблем нет, если нет то в своей сети пропишите на локальных компах маршрут до удаленной через свой pfsence. В удаленной сети, если тоже нет, прописать на локальных компах маршрут в Вашу сеть через из "стройство". Не нужно подымать ни какого интерфейса и прописывать на "роутерах" какие либо маршруты, наты и т.д. Это не работает. Это "чистый" ipsec, не вложенный в какой либо ppp.

                      сообщить модератору +/ответить
                      • gt оверквотинг удален Нет GW не совпадают Попробую маршрутами с локальных ком, !*! _John_ (ok), 16:54 , 02-Июн-21 (11)
                        >[оверквотинг удален]
                        >>> сетей соотвественно?
                        >> Нет, дефолтный GW не в туннель. В туннель только часть трафика
                        > Да не про это в локальной сети fpsence = GW? в удаленной
                        > подсети их девайс = GW? если да проблем нет, если нет
                        > то в своей сети пропишите на локальных компах маршрут до удаленной
                        > через свой pfsence. В удаленной сети, если тоже нет, прописать на
                        > локальных компах маршрут в Вашу сеть через из "стройство". Не нужно
                        > подымать ни какого интерфейса и прописывать на "роутерах" какие либо маршруты,
                        > наты и т.д. Это не работает. Это "чистый" ipsec, не вложенный
                        > в какой либо ppp.

                        Нет GW не совпадают. Попробую маршрутами с локальных компов. Спасибо!

                        сообщить модератору +/ответить


Postfix не принимает письма от одного адресата, что делать?, !*! semus, (Почта / Linux) 01-Июн-21, 12:46  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Это с их стороны10 09 06 001 5 SMTP-090261 dob kaluga ru processing10 09 06 061, !*! semus (ok), 12:48 , 01-Июн-21 (1)
    Это с их стороны

    10:09:06.001 5 SMTP-090261(dob.kaluga.ru) processing
    10:09:06.061 5 SMTP-090261(dob.kaluga.ru) 1 relay(s) found:dob.kaluga.ru
    10:09:06.061 4 SMTP-090261(dob.kaluga.ru) resolving 'dob.kaluga.ru'
    10:09:06.120 4 SMTP-090261(dob.kaluga.ru) connecting [0.0.0.0]:0 -> [62.148.148.92]:25
    10:09:06.174 3 SMTP-090261(dob.kaluga.ru) failed to connect to dob.kaluga.ru: [0.0.0.0]:0 -> [62.148.148.92]:25. Error Code=connection refused
    10:09:06.174 4 SMTP(dob.kaluga.ru) re-enqueue
    10:09:06.174 5 SMTP waiting: dob.kaluga.ru   active:
    10:09:06.174 5 SMTP(dob.kaluga.ru) is first in queue with 30 second(s) delay
    10:09:06.174 4 SMTP-090261(dob.kaluga.ru) releasing stream
    10:09:06.174 5 SMTP waiting(get): dob.kaluga.ru   active:
    10:09:06.174 5 SMTP(dob.kaluga.ru) is first in queue with 30 second(s) delay

    [root@mail SystemLogs]$ dig dob.kaluga.ru mx

    ; <<>> DiG 9.11.20-RedHat-9.11.20-5.el8_3.1 <<>> dob.kaluga.ru mx
    ;; global options: +cmd
    ;; Got answer:
    ;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 65253
    ;; flags: qr rd ra; QUERY: 1, ANSWER: 1, AUTHORITY: 0, ADDITIONAL: 1

    ;; OPT PSEUDOSECTION:
    ; EDNS: version: 0, flags:; udp: 512
    ;; QUESTION SECTION:
    ;dob.kaluga.ru.                 IN      MX

    ;; ANSWER SECTION:
    dob.kaluga.ru.          3599    IN      MX      10 dob.kaluga.ru.

    ;; Query time: 156 msec
    ;; SERVER: 8.8.8.8#53(8.8.8.8)
    ;; WHEN: Fri May 28 10:29:16 MSK 2021
    ;; MSG SIZE  rcvd: 58

    [root@mail SystemLogs]$ telnet dob.kaluga.ru 25
    Trying 62.148.148.92...
    telnet: connect to address 62.148.148.92: Connection refused
    [root@mail SystemLogs]$ nslookup dob.kaluga.ru
    Server:         8.8.8.8
    Address:        8.8.8.8#53

    Non-authoritative answer:
    Name:   dob.kaluga.ru
    Address: 62.148.148.92


    сообщить модератору +/ответить
  • Ваш сервер отбивает с сообщением, что не может отрезолвить DNS имя в IP Копайте, !*! Andrey (??), 13:02 , 01-Июн-21 (2)
    > Доброго времени суток, Подскажите пжлста, в какую сторону копать по вот этому
    > логу.
    > May 28 09:46:36 mail postfix/smtpd[39861]: warning: hostname mail.is-mis.ru does not resolve
    > to address 81.177.99.17: Name or service not known
    > May 28 09:46:36 mail postfix/smtpd[39861]: connect from unknown[81.177.99.17]

    Ваш сервер отбивает с сообщением, что не может отрезолвить DNS имя в IP.
    Копайте.

    сообщить модератору +/ответить
    • Пусть настроят обратную зону, странно, что у них еще работает, обычно все ее п, !*! Сергей (??), 14:58 , 01-Июн-21 (3)
      >> Доброго времени суток, Подскажите пжлста, в какую сторону копать по вот этому
      >> логу.
      >> May 28 09:46:36 mail postfix/smtpd[39861]: warning: hostname mail.is-mis.ru does not resolve
      >> to address 81.177.99.17: Name or service not known
      >> May 28 09:46:36 mail postfix/smtpd[39861]: connect from unknown[81.177.99.17]
      > Ваш сервер отбивает с сообщением, что не может отрезолвить DNS имя в
      > IP.
      > Копайте.

        Пусть настроят обратную зону, странно, что у них еще работает, обычно все ее проверяют как вы...


      сообщить модератору +/ответить
      • При чем тут обратная зона host 81 177 99 1717 99 177 81 in-addr arpa domain na, !*! Аноним (1), 15:06 , 01-Июн-21 (4)
        >   Пусть настроят обратную зону, странно, что у них еще работает,
        > обычно все ее проверяют как вы...

        При чем тут обратная зона?

        % host 81.177.99.17
        17.99.177.81.in-addr.arpa domain name pointer mail.is-mis.ru.
        % host mail.is-mis.ru
        mail.is-mis.ru has address 81.177.99.17

        Все у отправителя на месте. Это на принимающей стороне какие-то глюки с ДНС. Если лечить надо быстро, не докапываясь до сути, то нужно просто разрешить данный хост через check_helo_access, не вспомню вот так с ходу, как оно в постфиксе настраивается...

        сообщить модератору +/ответить
        • gt оверквотинг удален Дело в том что зона is-mis ru заведена в домене, т к не, !*! semus (ok), 10:08 , 02-Июн-21 (6)
          >[оверквотинг удален]
          >> обычно все ее проверяют как вы...
          > При чем тут обратная зона?
          > % host 81.177.99.17
          > 17.99.177.81.in-addr.arpa domain name pointer mail.is-mis.ru.
          > % host mail.is-mis.ru
          > mail.is-mis.ru has address 81.177.99.17
          > Все у отправителя на месте. Это на принимающей стороне какие-то глюки с
          > ДНС. Если лечить надо быстро, не докапываясь до сути, то нужно
          > просто разрешить данный хост через check_helo_access, не вспомню вот так с
          > ходу, как оно в постфиксе настраивается...

          Дело в том что зона is-mis.ru заведена в домене, т.к. некоторые узлы находятся в защещёной сети. Был создан узел А и почтовый обменник MX в этой зоне. После этого почта начала ходить. Еще раз всем спасибо.

          сообщить модератору +/ответить
    • Спасибо Разобрался , !*! semus (ok), 10:03 , 02-Июн-21 (5)
      Спасибо. Разобрался.

      сообщить модератору +/ответить
Помогите разобраться с pf, !*! resus, (Firewall, Фильтрация пакетов / FreeBSD) 30-Янв-21, 00:44  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Ничего хорошего из этого не получится У вас не одинаковые сетки 192 168 0 0 24, !*! ACCA (ok), 20:06 , 02-Фев-21 (1) +1
    Ничего хорошего из этого не получится. У вас не "одинаковые сетки 192.168.0.0/24", у вас одна сетка 192.168.0.0/24. См. RFC7020.

    Пока не уйдёте от неё, так и придётся заниматься глупостями с каждым адресом хоста.

    Дешёвое решение - поставь tinc и сделай VPN на 2 уровне OSI. "Корпоративное" решение - MPLS и гонять Ethernet через него.

    сообщить модератору +1 +/ответить
    • Не согласен С За исключением некоторых общих серверов типа 1С, базы законов, , !*! resus (?), 23:13 , 02-Фев-21 (2) –1
      > Ничего хорошего из этого не получится. У вас не "одинаковые сетки 192.168.0.0/24",
      > у вас одна сетка 192.168.0.0/24. См. RFC7020.

      Не согласен. (С) За исключением некоторых общих серверов типа 1С, базы законов, корпоративной почты, сетки никак не пересекаются. Хотя основное адресное простраство одинаковое.

      > Пока не уйдёте от неё, так и придётся заниматься глупостями с каждым
      > адресом хоста.

      А мне их надо-то мониторить - штук 5 всего. И как завещал товарищ Сухов - "Лучше, конечно, помучиться..." Мало ли - вдруг в жизни на какого-нибудь зверя типа openBSD нарвусь...

      > Дешёвое решение - поставь tinc и сделай VPN на 2 уровне OSI.

      А вот тут снова не согласен. Не знаю точно, что такое tinc (почитаю), но раз речь пошла про 2-й уровень OSI, то, полагаю, это похоже на бридж или eoip у микротика. У меня размер сетки под 150 человек. С той стороны, возможно, меньше. Плюс - и у меня есть дополнительные сетки, и там свой зоопарк подсетей, с которым разбираться пока нет желания. Ловить конфликты и давить "левые" пакеты, мне кажется, - большее зло.

      > "Корпоративное" решение - MPLS и гонять Ethernet через него.

      MPLS, как мне кажется, это провайдер уровня *телекома. Наш провайдер подобную услугу не даёт. Строить EthernetVPN (или закрытый канал) силами двух провайдеров - мою зарплату пустят на оплату подобной услуги. :( Мне-то оно надо на месяц, думаю, пока новый человек там не появится. А уж он-то пусть свой сегмент потом перекраивает как захочет.


      Но, спасибо за вариант решения.

      сообщить модератору –1 +/ответить
      • Я сейчас буду ругаться на твой ЕГЭ Перечитай RFC7020 - не бывает одинакового п, !*! ACCA (ok), 01:04 , 03-Фев-21 (3)
        >> Ничего хорошего из этого не получится. У вас не "одинаковые сетки 192.168.0.0/24",
        >> у вас одна сетка 192.168.0.0/24. См. RFC7020.
        > Не согласен. (С) За исключением некоторых общих серверов типа 1С, базы законов,
        > корпоративной почты, сетки никак не пересекаются. Хотя основное адресное простраство одинаковое.

        Я сейчас буду ругаться на твой ЕГЭ.

        Перечитай RFC7020 - не бывает "одинакового" пространства, в Internet только одно адресное пространство и все IP адреса обязаны быть уникальными. Пока у тебя сети были изолированы, у тебя было два Internet, не знающие друг о друге.

        Теперь ты их объединил в один. И в этом одном Internet ты обязан иметь уникальные unicast адреса и сети. Все протоколы расчитаны именно на уникальность адресов unicast.


        > А мне их надо-то мониторить - штук 5 всего. И как завещал
        > товарищ Сухов - "Лучше, конечно, помучиться..." Мало ли - вдруг в

        Для 5 штук заряди маршруты /32 на хостах и на маршрутизаторах. Даже с приоритетами не придётся возиться. pf не нужен.

        сообщить модератору +/ответить
        • gt оверквотинг удален Далеко не лучшее решение Хотя в поставленной задаче любо, !*! fantom (??), 11:42 , 03-Фев-21 (4)
          >[оверквотинг удален]
          > пространство и все IP адреса обязаны быть уникальными. Пока у тебя
          > сети были изолированы, у тебя было два Internet, не знающие друг
          > о друге.
          > Теперь ты их объединил в один. И в этом одном Internet ты
          > обязан иметь уникальные unicast адреса и сети. Все протоколы расчитаны именно
          > на уникальность адресов unicast.
          >> А мне их надо-то мониторить - штук 5 всего. И как завещал
          >> товарищ Сухов - "Лучше, конечно, помучиться..." Мало ли - вдруг в
          > Для 5 штук заряди маршруты /32 на хостах и на маршрутизаторах. Даже
          > с приоритетами не придётся возиться. pf не нужен.

          Далеко не лучшее решение.
          Хотя в поставленной задаче любое решение без изменения адресного пространства ИМХО костыльный костыль из костылей слепленный, соплями клееный.

          Если вам всего-то мониторить доступность серверов на другой площадке -- на втором шлюзе проброс портов сваяйте на нужные сервера и мониторьте на здоровье не по ICMP, а по tcp.
          Тем же пробросом вопрос управления решается.

          Ну или поизучать вашу мониторилку.
          Например у zabbix есть такая фишка как proxy. И вот через него вопрос мониторинга в описанной ситуации решаем гораздо проще.


          сообщить модератору +/ответить
          • У меня mrtg опрашивает состояние нагрузку по snmp Вот я и пытаюсь Но с pf до эт, !*! resus (?), 13:56 , 04-Фев-21 (5)
            > не по ICMP, а по tcp.
            > Тем же пробросом вопрос управления решается.
            > Ну или поизучать вашу мониторилку.
            > Например у zabbix есть такая фишка как proxy. И вот через него
            > вопрос мониторинга в описанной ситуации решаем гораздо проще.

            У меня mrtg опрашивает состояние/нагрузку по snmp.

            > Если вам всего-то мониторить доступность серверов на другой площадке -- на втором
            > шлюзе проброс портов сваяйте на нужные сервера и мониторьте на здоровье

            Вот я и пытаюсь. Но с pf до этих пор дел не имел, а сейчас в простых действиях разобрался, а вот проброс портов не получился, как задумывался. :(

            Мне нужен, например, хост 192.169.0.8 дальнего от меня филиала.
            Я добавляю в pf.conf, как я указывал ранее, строки (протоколы потом добавлю):

            rdr log on ovpn_if inet from 192.168.5.22 to 192.168.10.8 -> 192.168.0.8
            pass log quick inet from 192.168.5.22 to 192.168.10.8 flags S/SA keep state

            Т.е., по моей задумке, pf должен перехватить пакеты от 192.168.5.22 к 192.168.10.8 и перенаправить их на 192.168.0.8. В туннеле я входящие пакеты вижу, а на выходе в сторону 192.168.0.8 ничего нет. :(

            сообщить модератору +/ответить
        • А смысл Ты упускаешь слово public В u публичном u адресном пространстве - , !*! resus (?), 22:17 , 21-Фев-21 (6)
          >>> Ничего хорошего из этого не получится. У вас не "одинаковые сетки 192.168.0.0/24",
          >>> у вас одна сетка 192.168.0.0/24. См. RFC7020.
          >> Не согласен. (С) За исключением некоторых общих серверов типа 1С, базы законов,
          >> корпоративной почты, сетки никак не пересекаются. Хотя основное адресное простраство одинаковое.
          > Я сейчас буду ругаться на твой ЕГЭ.

          А смысл?

          > Перечитай RFC7020 - не бывает "одинакового" пространства, в Internet только одно адресное
          > пространство и все IP адреса обязаны быть уникальными. Пока у тебя

          Ты упускаешь слово "public"! В публичном адресном пространстве - да. Здесь же мы имеем дело с внутренними сетями. Все известные мне RFC требуют уникальности адреса в пределах одного физического сегмента ethernet.

          > сети были изолированы, у тебя было два Internet, не знающие друг о друге.

          Нет - у нас было раньше и есть теперь два сегмента ethernet, которые, по-прежнему, не знают друг о друге ничего.

          > Теперь ты их объединил в один. И в этом одном Internet ты обязан иметь уникальные
          > unicast адреса и сети. Все протоколы расчитаны именно на уникальность адресов unicast.

          Ну как "объединил"? Построил туннель всего лишь. Причем, у меня нет проблем с обращением к паре условно "моих" серверов клиентов из обоих сегментов. NAT спасает ситуацию. Мне совсем не нужна полноценно-одноранговая сеть.

          >> А мне их надо-то мониторить - штук 5 всего. И как завещал
          >> товарищ Сухов - "Лучше, конечно, помучиться..." Мало ли - вдруг в
          > Для 5 штук заряди маршруты /32 на хостах и на маршрутизаторах. Даже
          > с приоритетами не придётся возиться. pf не нужен.

          "В России нет дорог - есть направления" (С). В современном интернете очень мало Единственно Верных Решений. Как реализовать свою хотелочку на ipfw я зна. Теперь я хочу разобраться с pf. Товарищи в интернете пишут, что pf - "мощный инструмент, позволяющий тонко настраивать"... и "ничуть не уступающий остальным аналогичным средствам". Значит, на нём можно сделать то же, что и на ipfw.

          сообщить модератору +/ответить
Настройка router в exim, !*! korbnik, (Почта / Linux) 21-Май-21, 11:12  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
Не завершаются imapd процессы на FreeBSD, !*! Jonny_10101, (Почта / FreeBSD) 19-Май-21, 19:39  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • Тебя не побили еще Копать в сторону изучения принципа работы imap в первую очере, !*! Аноним (1), 20:10 , 19-Май-21 (1)
    > Перезагрузка помогает, но ненадолго.

    Тебя не побили еще?

    > Система досталась "в наследство", в FreeBSD новичок. Подскажите, куда копать?

    Копать в сторону изучения принципа работы imap в первую очередь.


    сообщить модератору +/ответить
  • gt оверквотинг удален ps -auxw 124 grep imap 124 wc 518 9181 9252, !*! Денис (??), 08:17 , 20-Май-21 (3)
    >[оверквотинг удален]
    > 39556 13440  -  S    Sat09  
    >     0:23.66 imapd: imaps: instant44.my.com [WWW.ZZZ.YYY.XXX] user6
    > cyrus      894  0.0  0.3  
    > 39528 13456  -  I    Sat09  
    >     0:44.92 imapd: imaps: picker32.m.smailru.net [WWW.ZZZ.YYY.XXX] user7
    > И так далее, всего более 400 imapd процессов, которые в итоге почти
    > подвешивают систему.
    > IP и пользователи заменены на YYY и user
    > Перезагрузка помогает, но ненадолго.
    > Система досталась "в наследство", в FreeBSD новичок. Подскажите, куда копать?

    ps -auxw | grep imap|wc
         518    9181   92525
    16 гб памяти на сервере полет нормальный

    сообщить модератору +/ответить
  • Прежде чем лезть немытыми лапами куда не надо не мешало бы знать чем модель расп, !*! Ann None (?), 12:27 , 20-Май-21 (6)
    Прежде чем лезть немытыми лапами куда не надо не мешало бы знать чем модель распределения памяти FreeBSD отличается от Linux. Тогда меньше глупых вопросов возникает.
    сообщить модератору +/ответить
    • Зачем унижать человека Он одно не знает, но пытается понять Вы другого не знае, !*! DAV (?), 14:48 , 20-Май-21 (7)
      > Прежде чем лезть немытыми лапами куда не надо не мешало бы знать
      > чем модель распределения памяти FreeBSD отличается от Linux. Тогда меньше глупых
      > вопросов возникает.

      Зачем унижать человека. Он одно не знает, но пытается понять. Вы другого не знаете...
      Не плодите злость на планете.

      По существу вопроса.
      Чем больше количество писем у пользователя, тем больше времени занимает проверка ящика.
      Если у пользователя на клиенте выставлена высокая частота проверки новой почты, то бывает что ещё не закончилась одна проверка, как уже началась новая. Таким образом плодится много процессов, съедающих ресурсы.

      Лечение:
      Как уже сказали -- нарастить ресурсы.
      Провести разъяснительную работу среди пользователей по оптимальной настройке почтового клиента.
      Убрать почту клиента за прошлые годы из inbox в отдельные папки по годам.
      Это реально облегчает работу сервера -- проверено.

      сообщить модератору +/ответить
      • gt оверквотинг удален Увидев 194M Free не нужно паниковать и судорожно перезаг, !*! Ann None (?), 15:26 , 20-Май-21 (8)
        >[оверквотинг удален]
        > Если у пользователя на клиенте выставлена высокая частота проверки новой почты, то
        > бывает что ещё не закончилась одна проверка, как уже началась новая.
        > Таким образом плодится много процессов, съедающих ресурсы.
        > Лечение:
        > Как уже сказали -- нарастить ресурсы.
        > Провести разъяснительную работу среди пользователей по оптимальной настройке почтового
        > клиента.
        > Убрать почту клиента за прошлые годы из inbox в отдельные папки по
        > годам.
        > Это реально облегчает работу сервера -- проверено.

        Увидев 194M Free не нужно паниковать и судорожно перезагружать машину, причиняя боль пользователям. Нужно для начала разобраться в особенностях работы с памятью.

        сообщить модератору +/ответить
        • gt оверквотинг удален Я не паниковал Просто когда кончалась память начинался , !*! Jonny_10101 (ok), 15:31 , 20-Май-21 (9)
          >[оверквотинг удален]
          >> Таким образом плодится много процессов, съедающих ресурсы.
          >> Лечение:
          >> Как уже сказали -- нарастить ресурсы.
          >> Провести разъяснительную работу среди пользователей по оптимальной настройке почтового
          >> клиента.
          >> Убрать почту клиента за прошлые годы из inbox в отдельные папки по
          >> годам.
          >> Это реально облегчает работу сервера -- проверено.
          > Увидев 194M Free не нужно паниковать и судорожно перезагружать машину, причиняя боль
          > пользователям. Нужно для начала разобраться в особенностях работы с памятью.

          Я не паниковал. Просто когда кончалась память начинался юзаться своп (на обычном HDD), что приводило к перегрузке дисковой системы и росту очереди, что, в свою очередь, приводило к тормозам у пользователей. Сейчас разобрались, что дело было в недостатке памяти, которая увеличена.

          сообщить модератору +/ответить
Последняя версия exim для 6 версии CentOS., !*! korbnik, (Почта / Linux) 14-Май-21, 18:28  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
qemu в консольном режиме как?, !*! semen_pochtalion, (Виртуализация) 21-Май-19, 18:01  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]


pf, rdp и я чего-то не понимаю, !*! Алдр Бов, (Firewall, Фильтрация пакетов / FreeBSD) 20-Апр-21, 20:53  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
драйвер raid контроллер LSI megaraid 9341-8i, !*! alekseyrnd, (Файловые системы, диски) 04-Май-21, 18:29  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
DHCP не отдает static-routes клиентам vpn, !*! Аноним, (DHCP / FreeBSD) 27-Апр-21, 09:15  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]
  • gt оверквотинг удален выкинуть ICS и поставить dnsmasq, !*! pavel_simple. (?), 16:19 , 28-Апр-21 (1)
    >[оверквотинг удален]
    >   255.255.255.255  255.255.255.255        
    >  On-link     192.168.1.216   4506
    >   255.255.255.255  255.255.255.255        
    >  On-link        10.0.9.250  
    >   281
    > ===========================================================================
    > Пока вышли из положения прописыванием маршрута на клиенте вручную.
    > Но вопрос "почему так" и "что делать" - остался. Почему в одном
    > случае маршруты отсылаются клиенту, а в другом - нет? И как
    > это поправить?

    выкинуть ICS и поставить dnsmasq

    сообщить модератору +/ответить
  • ВПН При чём тут dhcp Информацию о маршрутах клиенту впн обычно передаёт впн-се, !*! Алдр Бов (?), 13:14 , 29-Апр-21 (3) –1
    > Это работает, клиент по vpn подключается, получает адрес из сети 172.16.0.0 и маршруты для 10.0.0.0/8 и 192.168.30.0/24:

    ВПН? При чём тут dhcp? Информацию о маршрутах клиенту впн обычно передаёт впн-сервер. Из тех, что мне известны. Не исключаю, что есть какие-то ещё реализации впн, которые пользуются для настроек клиента dhcp-сервером, но я с такими пока не работал.

    Вас, кстати, совсем не смущает разница в настройках dhcpd и получаемыми клиентом? Меня - сильно. Что-то вы нам не договариваете или сами сильно не понимаете.

    >  option routers 10.0.9.1;
    >          0.0.0.0          0.0.0.0         On-link       172.16.0.20     26
    >         10.0.0.0        255.0.0.0         On-link       172.16.0.20     26

                                                                        ^^^^^^^^^^^^^^^^^^^^^
    Здесь глаз совсем ни за что не цепляется?

    >   range 10.0.9.240 10.0.9.254;
    >   option domain-name-servers 10.0.1.2, 10.0.1.4;
    >   option netbios-node-type 8;
    >   option routers 10.0.9.1;
    >   option broadcast-address 10.0.9.255;
    >   option ms-static-routes  24,192,168,30, 10,0,9,1;
    >   option rfc-static-routes 24,192,168,30, 10,0,9,1;
    >   default-lease-time 600;
    >   max-lease-time 7200;
    > }

    Может, я чего-то не понимаю, но какой смысл прописывать клиентам отдельный маршрут на defaultgw? Клиенты - M$? Если да - у них своя особая логика и маршрут, поглощаемый основным вполне может отбрасываться. Но!...

    Во втором диапазоне тоже есть очень странные расхождения:
    >  option routers 10.0.9.1;
    >          0.0.0.0          0.0.0.0         On-link        10.0.9.250     26

    Очень похоже, что Вы пользуете openvpn, но тогда и настройки надо ковырять не в несчастном dhcpd, а в впн-сервере. "Мухи - отдельно, котлеты - отдельно" - не надо всё смешивать в одну кучу.

    сообщить модератору –1 +/ответить
    • Стало быть, известно вам мало Точнее, только openvpn Ну-ка, с ходу - нарисуйте, !*! Аноним (4), 13:36 , 29-Апр-21 (4)
      >> Это работает, клиент по vpn подключается, получает адрес из сети 172.16.0.0 и маршруты для 10.0.0.0/8 и 192.168.30.0/24:
      > ВПН? При чём тут dhcp? Информацию о маршрутах клиенту впн обычно передаёт
      > впн-сервер. Из тех, что мне известны.

      Стало быть, известно вам мало. Точнее, только openvpn. Ну-ка, с ходу - нарисуйте мне конфигурацию mpd5 или wireguard с передачей маршрутов клиенту...

      > Вас, кстати, совсем не смущает разница в настройках dhcpd и получаемыми клиентом?
      > Меня - сильно. Что-то вы нам не договариваете или сами сильно не понимаете.

      Нисколько не смущает. Непонимание происходящего, кажется, имеет место на вашей стороне. Осознайте, что vpn представляет собой point-to-point connection, для которого существуют только клиент и сервер. После этого смущения и непонимания должны исчезнуть.

      > Может, я чего-то не понимаю, но какой смысл прописывать клиентам отдельный маршрут
      > на defaultgw? Клиенты - M$? Если да - у них своя
      > особая логика и маршрут, поглощаемый основным вполне может отбрасываться. Но!...

      Дичь какая. Извините.

      > Очень похоже, что Вы пользуете openvpn,

      Очень похоже, что вы читаете через строку. Иначе не строили бы предположений, а знали, что в качестве vpn-сервера выступает softether.

      сообщить модератору +/ответить
      • Не исключаю Тут уже Вы вступили на зыбкую почву предположений Ну, сходу я и конф, !*! Алдр Бов (?), 15:23 , 29-Апр-21 (5) –1
        >>> Это работает, клиент по vpn подключается, получает адрес из сети 172.16.0.0 и маршруты для 10.0.0.0/8 и 192.168.30.0/24:
        >> ВПН? При чём тут dhcp? Информацию о маршрутах клиенту впн обычно передаёт
        >> впн-сервер. Из тех, что мне известны.
        > Стало быть, известно вам мало.

        Не исключаю.

        > Точнее, только openvpn.

        Тут уже Вы вступили на зыбкую почву предположений.

        > Ну-ка, с ходу - нарисуйте мне конфигурацию mpd5 или wireguard с передачей маршрутов клиенту...

        Ну, сходу я и конфигурацию openvpn не нарисую - надо в примеры лезть. А в mpd, кстати, маршрутизация отображается в более классическом виде и проще для понимания ситуации.

        >> Вас, кстати, совсем не смущает разница в настройках dhcpd и получаемыми клиентом?
        >> Меня - сильно. Что-то вы нам не договариваете или сами сильно не понимаете.
        > Нисколько не смущает.

        Печально. Когда на сервере выдаётся в качестве маршрута адрес 0.1, а у клиента вместо этого - 0.20 - любая логика происходящего ломается напрочь. Объяснение одно - isc-dhcpd не имеет к маршрутизации у клиента никакого отношения.

        > Непонимание происходящего, кажется, имеет место на вашей стороне.

        Да, абсолютно. Я ж Вашей сети не знаю. Извините, что попытался помочь разобраться.

        > Осознайте, что vpn представляет собой point-to-point connection, для которого существуют
        > только клиент и сервер. После этого смущения и непонимания должны исчезнуть.

        Такой костыль, как маршрут (по умолчанию), направленный на отображение локального адреса я пока встречал только в openvpn. Помню бурную дискуссию в конференциях лет ... (много) назад с разработчиками на эту тему, которая закончилась словами "ну вот так вот нам было проще сделать". В том же mpd, насколько мне помнится, маршрут указывает на противоположный конец туннеля.

        >> Может, я чего-то не понимаю, но какой смысл прописывать клиентам отдельный маршрут
        >> на defaultgw? Клиенты - M$? Если да - у них своя особая логика и маршрут,
        >> поглощаемый основным вполне может отбрасываться. Но!...
        > Дичь какая. Извините.

        Увы, от M$, из опыта, приходится ожидать совершенно нелогичного поведения. И когда-то я с чем-то таким уже сталкивался.

        >> Очень похоже, что Вы пользуете openvpn,
        > Очень похоже, что вы читаете через строку. Иначе не строили бы предположений,
        > а знали, что в качестве vpn-сервера выступает softether.

        Не пробовал, что это такое, поэтому ещё раз прошу прощения, что влез со своими предположениями. Сейчас вот заглянул почитать, что это: "строит L2 и L3 туннели, имеет встроенный DHCP-сервер, поддерживает...". Так что isc-dhcpd, как я и пытался Вам донести, в Вашем случае совершенно не причём. Пошёл читать дальше....

        сообщить модератору –1 +/ответить
  • gt оверквотинг удален 1 На клиенте wireshark-ок слушаете интерфейс и смотрите, !*! fantom (??), 15:38 , 29-Апр-21 (6)
    >[оверквотинг удален]
    >   255.255.255.255  255.255.255.255        
    >  On-link     192.168.1.216   4506
    >   255.255.255.255  255.255.255.255        
    >  On-link        10.0.9.250  
    >   281
    > ===========================================================================
    > Пока вышли из положения прописыванием маршрута на клиенте вручную.
    > Но вопрос "почему так" и "что делать" - остался. Почему в одном
    > случае маршруты отсылаются клиенту, а в другом - нет? И как
    > это поправить?

    1. На клиенте wireshark-ок слушаете интерфейс и смотрите содержимое пакета -- есть ваши опции или нет.
    2. Логи никто не отменял.

    сообщить модератору +/ответить
Самба убивает файлы, !*! pavlinux, (Samba, выделена в отдельный форум / Linux) 04-Май-21, 02:09  [ | | | ] [линейный вид] [смотреть все] [раскрыть новое]


 
Пометить прочитанным Создать тему
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | Архив | Избранное | Мое | Новое | | |



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру