The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Релиз OpenZFS 2.1 с поддержкой dRAID

02.07.2021 23:48

Опубликован релиз проекта OpenZFS 2.1, развивающего реализацию файловой системы ZFS для Linux и FreeBSD. Проект получил известность как "ZFS on Linux" и ранее ограничивался разработкой модуля для ядра Linux, но после переноса поддержки FreeBSD был признан основной реализацией OpenZFS и переименован.

Работа OpenZFS проверена с ядрами Linux c 3.10 по 5.13 и всеми ветками FreeBSD, начиная с 12.2-RELEASE. Код распространяется под свободной лицензией CDDL. OpenZFS уже используется во FreeBSD и входит в состав дистрибутивов Debian, Ubuntu, Gentoo, Sabayon Linux и ALT Linux. Пакеты с новой версией в ближайшее время будут подготовлены для основных дистрибутивов Linux, включая Debian, Ubuntu, Fedora, RHEL/CentOS.

OpenZFS предоставляет реализацию компонентов ZFS, связанных как с работой файловой системы, так и с функционированием менеджера томов. В частности, реализованы компоненты: SPA (Storage Pool Allocator), DMU (Data Management Unit), ZVOL (ZFS Emulated Volume) и ZPL (ZFS POSIX Layer). Дополнительно проектом обеспечена возможность использования ZFS в качестве бэкенда для кластерной файловой системы Lustre. Наработки проекта основаны на оригинальном коде ZFS, импортированном из проекта OpenSolaris и расширенном улучшениями и исправлениями от сообщества Illumos. Проект развивается при участии сотрудников Ливерморской национальной лаборатории по контракту с Министерством энергетики США.

Код распространяется под свободной лицензией CDDL, которая несовместима с GPLv2, что не позволяет добиться интеграции OpenZFS в состав основной ветки ядра Linux, так как смешивание кода под лицензиями GPLv2 и CDDL недопустимо. Для обхода данной лицензионной несовместимости было решено распространять продукт целиком под лицензией CDDL в виде отдельно загружаемого модуля, который поставляется отдельно от ядра. Стабильность кодовой базы OpenZFS оценивается как сопоставимая с другими ФС для Linux.

Основные изменения:

  • Добавлена поддержка технологии dRAID (Distributed Spare RAID), которая представляет собой вариант RAIDZ с интегрированной распределённой обработкой блоков для горячего восстановления (hot spare). dRAID унаследовал все преимущества RAIDZ, но позволил добиться значительного увеличения скорости перестроения хранилища (resilvering) и восстановления избыточности в массиве. Виртуальное хранилище dRAID формируется из нескольких внутренних групп RAIDZ, в каждой из которой присутствуют устройства для хранения данных и устройства для хранения блоков чётности. Указанные группы распределены по всем накопителям для оптимального использования доступной пропускной способности дисков. Вместо отдельного диска для горячего восстановления в dRAID применяется концепция логического распределения блоков для горячего восстановления по всем дискам в массиве.
  • Реализовано свойство "compatibility" ("zpool create -o compatibility=off|legacy|file[,file...] pool vdev"), позволяющее администратору выбрать набор возможностей, которые следует активировать в пуле, с целью создания переносимых пулов и поддержания совместимости пулов между разными версиями OpenZFS и разными платформами.
  • Предоставлена возможность сохранения статистики о работе пула в формате СУБД InfluxDB, оптимизированной для хранения, анализа и манипулирования данными в форме временного ряда (срезы значений параметров через заданные промежутки времени). Для экспорта в формат InfluxDB предложена команда "zpool_influxdb".
  • Добавлена поддержка горячего добавления памяти и CPU.
  • Новые команды и опции:
    • "zpool create -u" - запрет автоматического монтирования.
    • "zpool history -i" - отражение в истории операций длительности выполнения каждой команды.
    • "zpool status" - добавлен вывод предупреждения о дисках с неоптимальным размером блока.
    • "zfs send --skip-missing|-s" - игнорирование отсутствующих снапшотов в процессе отправки потока для репликации.
    • "zfs rename -u" - переименование ФС без перемонтирования.
    • В arcstat добавлена поддержка статистики L2ARC и добавлены опции "-a" (all) и "-p" (parsable).
  • Оптимизации:
    • Повышена производительность интерактивного ввода/вывода.
    • Ускорена работа prefetch для нагрузок, связанных с параллельным доступом к данным.
    • Улучшена масштабируемость за счёт снижения конфликта блокировок.
    • Сокращено время импорта пула.
    • Сокращена фрагментация ZIL-блоков.
    • Повышена производительность рекурсивных операций.
    • Улучшено управление памятью.
    • Ускорена загрузка модуля ядра.


  1. Главная ссылка к новости (https://github.com/openzfs/zfs...)
  2. OpenNews: Релиз OpenZFS 2.0, реализации ZFS для Linux и FreeBSD
  3. OpenNews: Представлен проект OpenZFS, направленный на унификацию развития файловой системы ZFS
  4. OpenNews: Ошибка в патчах FreeNAS, вызывающая скрытое повреждение данных в ZFS
  5. OpenNews: Уязвимость в OpenZFS, нарушающая обработку прав доступа во FreeBSD
  6. OpenNews: Кодовая база FreeBSD переведена на использование OpenZFS (ZFS on Linux)
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/55433-zfs
Ключевые слова: zfs, openzfs
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (252) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Аноним (1), 00:19, 03/07/2021 Скрыто ботом-модератором [﹢﹢﹢] [ · · · ]     [к модератору]
  • –8 +/
     
  • 1.3, Аноним (3), 00:25, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • –6 +/
    Дефрагментацию так и не запилили? Тогда не нужно.
     
     
  • 2.7, Аноним (7), 01:46, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Зачем вам дефрагментатор? На zfs возможна лишь фрагментация свободного пространства, но не данных.
     
     
  • 3.86, Онаним (?), 09:11, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Это на коровах-то (CoW) "но не данных"?
    Лечите кого-нибудь другого.
    На коровах почти любая запись в файл фрагментирует данные by design.
     
     
  • 4.161, Аноним (161), 15:44, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –5 +/
    прямо "by design"? что, этот "design" запрещает копирование элемента целеком? насильственно заставляет делать это только для отдельной страницы? или все таки есть варианты?
     
  • 4.261, freehck (ok), 17:19, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > На коровах почти любая запись в файл фрагментирует данные by design.

    ARC в помощь.

     
     
  • 5.278, Онаним (?), 20:34, 20/09/2021 [^] [^^] [^^^] [ответить]  
  • +/
    И как наша доблестная жанночка решит проблему фрагментации на носителе?
    Как раз причина, почему ZFS идёт нахер - если ему не отдать памяти по горло, он нормально работать не будет.
     
     
  • 6.279, freehck (ok), 13:48, 22/09/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Совсем не решит, но существенно облегчит дело за счёт сериализации данных перед сбросом.
    А по поводу памяти -- ну так сначала надо выбрать ФС, удовлетворяющую вашим нуждам, а потом уже систему заказывать. К слову, рама стоит вообще копейки.
     
     
  • 7.280, Онаним (?), 14:07, 22/09/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Так собственно да, и это не ZFS :)
     
  • 4.276, Tim (??), 16:52, 20/09/2021 [^] [^^] [^^^] [ответить]  
  • +/
    в zfs же RoW, а не CoW
     
  • 4.277, Онаним (?), 20:32, 20/09/2021 [^] [^^] [^^^] [ответить]  
  • +/
    FoW там. Fragment on Write или Fuckup on Write, как кому привычнее.
     
  • 2.12, Хан (?), 02:47, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Дефрагментация на HDD слишком тормозная и неэффективная, а на SSD вообще бессмысленная
     
  • 2.71, bOOster (ok), 07:47, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Дефрагментацию так и не запилили? Тогда не нужно.

    В высокоэффективных файловых структурах - система располагает данные для целевого назначения (максимальной производительности, минимального обьема и т.п.) и делает она это в соотвествии со своим порядком, а никак не твоим представлением, где и как должны лежать цельно-выровненные файлы...

     
     
  • 3.87, Онаним (?), 09:12, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ротационным накопителям пофиг на "свой порядок" у альтернативно одарённых, для них оптимальное расположение - последовательное.
     
     
  • 4.97, пох. (?), 09:35, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +6 +/
    > Ротационным накопителям пофиг на "свой порядок" у альтернативно одарённых, для них оптимальное
    > расположение - последовательное.

    с разморозочкой, ваш MS-DOS давно уже немодно.

    В многозадачной системе с множественным параллельным доступом к данным, причем как правило ни разу не linear, оно ни разу не будет оптимальным. Особенно с учетом того забавного факта, что у данных есть еще и метаданные, и их тоже надо читать каждый раз.

    Оптимальным был бы хитрый interleave знающий точно о том что и какими кусками будет читаться, но за неимением /dev/astral - обходятся блоками разумной длинны и размещением метаданных немножко более разумным способом чем в твоем любимом fat.

     
     
  • 5.157, Аноним (157), 15:04, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Ну и какими кусками твои DLL'ки читаются? Правильно. Целиком. Времена мсдос с 512к и оверлеями того, кончились.
     
     
  • 6.180, пох. (?), 22:28, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Какими попало они читаются. Ага, кончились.
    Теперь кодовые страницы _mmap_аются. И читаются только при получении page fault (то есть неиспользуемые - вообще никогда). Там есть еще block size, prefetch и прочие фокусы, чтоб уж совсем по 4k не читать, но в целом мир устроен изрядно сложнее чем тебе кажется.

    Впрочем, один раз записанный файл скорее всего уляжется на диск последовательно или около того - страдания секты свидетелей фрагментации начинаются когда файл переписывается на ходу. Для бинарников это немного странно.

     
     
  • 7.218, kai3341 (ok), 13:04, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > страдания секты свидетелей фрагментации начинаются когда файл переписывается на ходу. Для бинарников это немного странно.

    Кстати, это нормальный режим работы БД

     
     
  • 8.225, пох. (?), 18:44, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    без тебя мы бы об этом ну никак не догадались Кстати, зачем тебе понадобилось п... текст свёрнут, показать
     
     
  • 9.230, kai3341 (ok), 22:27, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Ну и смысл было агриться С тобой же никто не спорил Базочек у меня в наличии и... текст свёрнут, показать
     
  • 7.252, n00by (ok), 10:18, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > когда файл переписывается
    > на ходу. Для бинарников это немного странно.

    Исполняемый файл не переписывается, его банально нельзя открыть с правами на запись и исполнение. Что бы запущенный экзешник возможно было переписать, Микрософт набангалорила удивительное по своим габаритам технологическое отверстие, через которое сливаются все права на файлы и проч.

     
  • 6.251, n00by (ok), 09:55, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > Ну и какими кусками твои DLL'ки читаются? Правильно. Целиком.

    Вы удивитесь, но образы Portable Executable (dll в частности) в Вашей любимой Виндос вообще не читаются. Они _отображаются_. Сначала -- заголовок, потом -- релокации (если требуется) и импорт/экспорт. На этом всё. Далее сектора файла отображаются в страницы ОЗУ при доступе к командам/данным.

     
  • 3.88, Онаним (?), 09:13, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Полноценным твердотельникам ещё более пофиг - у них внутри данные всё равно раскладываются так, как хотят они, а не софт.
     
     
  • 4.112, Аноним (112), 11:22, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Да и в современных ЖД c LBA адресацией, соседние номера блоков часто не являются соседями физически. Скорей правила хорошего тона, чем жесткий закон, что надо хранить последовательно.
     
     
  • 5.175, Онаним (?), 18:49, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Охохо.
    Ладно, оставлю вас пребывать в уверенности, что LBA каждый сектор по диску рандомно размазывает.
    Но если учесть, что единица чтения с диска - дорожка, в основном, нет, можно и индивидуальный сектор, но время чтения будет не сильно меньше... короче, оставлю.
     
     
  • 6.266, WD (?), 19:03, 06/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Шел 21 век, но почитатели LMR продолжали молиться своему старом богу. В то время как HMSMR контролится самим жестким диском. Фрагментация? Помолимся, братья...
     

  • 1.4, Аноним (4), 00:28, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Проблемы рейда с парити (raid6) так и не решили?
     
     
  • 2.140, edo (ok), 13:54, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Что за проблемы?
     
     
  • 3.146, Аноним (4), 14:04, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –2 +/
    > Что за проблемы?

    РОССЫПАЕТСЯ ЖЫ.

     
     
  • 4.167, edo (ok), 17:03, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Детали можно? У меня есть несколько, пока проблем не наблюдаю
     
     
  • 5.169, Аноним (4), 17:15, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –3 +/
    > Детали можно? У меня есть несколько, пока проблем не наблюдаю

    Ну так пока всё не рухнет, проблем и не будет. Когда в результате аварии на диске окажутся неконсистентные данные (в частности, среди прочего, парити постоянно теряет консистентность), рейд не сможет восстановиться и придётся вытягивать что получится с дисков по отдельности. Я про эту проблему 6 рейда. Насколько я знаю, разработчики btrfs из-за этого до сих пор настоятельно не рекомендуют уровни 5 и 6. У zfs это "вроде как" не та проблема, однако фундаментально она не решена до конца и в ней.

     
     
  • 6.181, пох. (?), 22:30, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +3 +/
    эта "проблема" вызвана исключительно рукожопием автора btrfs. Ни малейшего отношения к zfs не имеет, и, кстати, никакого "raid6" в zfs нет. Есть raidz2, и теперь еще и draid2, которые ни разу не "raid6".

     
     
  • 7.183, Аноним (4), 23:09, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –4 +/
    А вот этого я и не утверждал. Вот только и без btrfs она существует, это концептуальный недостаток рейда. Как ты его ни назови.
     
     
  • 8.186, пох. (?), 01:16, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    она без btrfs не существует нет, это твои влажные фантазии и слышанный звон Пр... текст свёрнут, показать
     
     
  • 9.199, Аноним (4), 08:56, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Write hole -- ошибки в математике, что ... текст свёрнут, показать
     
     
  • 10.215, Аноним (215), 12:34, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    ты совсем тупой и не умеешь прочитать два абзаца раздельно, а не слив в своей ды... текст свёрнут, показать
     
     
  • 11.216, Аноним (4), 12:50, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Даже не читал и не собираюсь Как и тебя, Манечка Однако, говоря о зфс, если им... текст свёрнут, показать
     
     
  • 12.245, Минона (ok), 08:23, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    как ты ловко переодеваешься прям в воздухе не будут это пофиксили, теперь логу... большой текст свёрнут, показать
     
  • 4.262, freehck (ok), 17:22, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > РОССЫПАЕТСЯ ЖЫ.

    Вы с btrfs перепутали.

     
  • 2.222, Ivan (??), 15:15, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Не Raid6, а Raid5. В ZFS этой проблема нет, так как пишется не страйпами, а блоками, часто короче чем полный страйп и нет частичной перезаписи спрайпа, которая как раз вызываетт write hole в raid5.  Из-за такой организации Raidz в ZFS не масштабирует количество рандомных доступов, только throughout.
     

  • 1.5, Анон123амм (?), 01:19, 03/07/2021 Скрыто ботом-модератором [﹢﹢﹢] [ · · · ]     [к модератору]
  • –5 +/
     
  • 1.6, ИмяХ (?), 01:27, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    >>Добавлена поддержка горячего добавления памяти и CPU.

    Осталось добавить поддержку видеокарт, Wi-fi, пятикнопочной мыши, управление скоростью вращения кулеров и тогда будет годная файловая система для повседневного использования.

     
     
  • 2.9, Аноним (3), 01:55, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Systemd-zfsd
     
     
  • 3.14, Хан (?), 02:52, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Лучше не напоминай про systemd, это такая хрень, что капец
     
     
  • 4.70, Аноним (70), 07:45, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Да, кстати, вы просили напомнить о systemd!
     
     
  • 5.128, Аноним (128), 13:25, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Хорошая вещь кстати! Я очень рад что наконец-то не приходится параллельно поддерживать ещё и баш-портянки для тех же пакетов, собиравшихся под чентось6.
     

  • 1.8, Аноним (7), 01:52, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +4 +/
    Лучшая файловая система по совокупности потребительских характеристик!
     
     
  • 2.10, Аноним (10), 02:37, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Нет, свободное место утекает.
     
     
  • 3.18, Аноним (18), 03:03, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Стандартное свойство cow-систем на базе древовидных структур.
     
     
  • 4.28, Хан (?), 03:23, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Это линуксоиды сэр... они могут критиковать ZFS так как ее лицензия знатно троллит пингвинов и при этом же восхвалять Btrfs которая является копипастой на ZFS но под идеологически правильной лицензией
     
     
  • 5.36, pofigist (?), 05:03, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +8 +/
    У btrfs есть ещё одно важное отличае от zfs - способность внезапно и гарантировано похерить ваши данные...
     
     
  • 6.89, Онаним (?), 09:14, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –5 +/
    Это да. Если ZFS похерила данные, назад уже ничего не вытянуть.
     
     
  • 7.105, Аноним (105), 10:51, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Потому что ВСЕГДА нужно делать бекапы, разнесенные физически. Никакой ZFS от молотка, пожара и кривых рук не защищает.
    А вообще, структуру повреждённого RaidZ вполне можно прочитать утилитами восстановления из Винды, если религия позволяет.
     
     
  • 8.246, Минона (ok), 08:53, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    это какими ... текст свёрнут, показать
     
     
  • 9.270, pofigist (?), 14:39, 07/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    ZFSin например... текст свёрнут, показать
     
     
  • 10.272, Минона (ok), 06:58, 08/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    так это еще альфа... текст свёрнут, показать
     
     
  • 11.275, pofigist (?), 11:24, 03/08/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Тебе шашечки или ехать 90 опенсорца - альфа по жизни, но тем не менее - работ... текст свёрнут, показать
     
  • 2.11, Аноним (3), 02:40, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –5 +/
    >Лучшая файловая система

    Зачем же ты упомянул xfs в новости про zfs?

     
     
  • 3.13, Хан (?), 02:51, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –5 +/
    Очень по линуксячьи гордится чужими разработками, а именно XFS от SGI...
    А ZFS от Sun чем не угодила? Тем что лицензия не позволяет включить ее в ядро?
    Вангую что если когда нибудь ZFS сменит лицензию на BSD, линуксоиды взревут от восторга и будут вопить какая ZFS крутая
     
     
  • 4.16, Аноним (18), 02:59, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Не так важно, кто разработал, важно, что быстро работает (и не деградирует по скорости со временем), и гораздо более эффективно расходует память.
     
     
  • 5.30, Хан (?), 03:24, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Быстрее FAT сложно придумать
     
     
  • 6.33, maximnik0 (?), 04:06, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    >Быстрее FAT сложно придумать

    Нет,ехт4 с отключенным журналом работает быстрее.
    Ехтенты сэр,быстрее только RAW режим.Ну может еще exfat покажет схожую скорость.

     
     
  • 7.40, Хан (?), 05:18, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    ExFAT лютый апрейд FAT, раньше она так и называлась FAT64
    Насчет ext4 с отключенным журналом, ну так это тот же FAT только с экстентами
     
     
  • 8.55, maximnik0 (?), 06:52, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Не ,b- дерева у фат нету Из-за этого с каталогом где до хрена мелких файлов раб... текст свёрнут, показать
     
     
  • 9.59, bOOster (ok), 07:10, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    В инфраструктуре FreeBSD за шифрование отвечает GELI И в целом нет необходимост... текст свёрнут, показать
     
     
  • 10.64, Аноньимъ (ok), 07:29, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    GELI не шифрует ФС, оно шифрует блочные устройства ... текст свёрнут, показать
     
     
  • 11.67, bOOster (ok), 07:35, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Ну а блочное устройство в 99 случаев что содержит в себе ... текст свёрнут, показать
     
     
  • 12.129, Аноним (128), 13:27, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    ФС и блочные устройства - это разные вещи вообще-то ... текст свёрнут, показать
     
  • 11.68, bOOster (ok), 07:39, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Хотя замечание в целом правильное Функционал GELI значительно шире чем шифрован... текст свёрнут, показать
     
  • 9.78, Хан (?), 08:17, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Отсутсвие B дерева в структуре FAT историческое... текст свёрнут, показать
     
  • 7.127, Аноним (4), 13:12, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Не работает, я проверял. Ну т.е. линейная скорость для 1 файла может и выше на пару процентов, но когда начинаешь работать с файлами, скорость падает в пол из-за отсутствия возможности эффективно работать с метаданными.
     
  • 6.166, Котофалк (?), 17:01, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Быстрее FAT вообще ничего сдохнуть не может. А эти волшебные две копии FAT, дефолтная работа с которыми от Майкрософт позволяет потерять данные ещё быстрее и надёжнее...
     
  • 5.58, bOOster (ok), 07:07, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Не так важно, кто разработал, важно, что быстро работает (и не деградирует
    > по скорости со временем), и гораздо более эффективно расходует память.

    QNAP так не считает и все расставила по своим местам. Какая трагедия для Линуксоидов.

    QTS - Entry and Mid level Linux based system.
    QES - Enterprise level FreeBSD based system. И ожидаемо ZFS

     
     
  • 6.82, Яровая (?), 08:45, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    QNAP это поделка для домашнего использования. Поэтому совершенно неважно, что там внутри.
     
     
  • 7.118, bOOster (ok), 12:24, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > QNAP это поделка для домашнего использования. Поэтому совершенно неважно, что там внутри.

    Хорошая попытка, как обычно от оголтелого линуксоида обосрать железку ценой так 5000-10000 долларов.
    Ну и конечно хотел бы я посмотреть на домашнего пользователя который приобрел бы себе такую штучку за такие деньги...

     
     
  • 8.130, Аноним (128), 13:29, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Ну Dell EMC на бтрфс, Portworx на бтрфс Думаю твоё мнение - это последнее чт... текст свёрнут, показать
     
  • 6.90, Онаним (?), 09:15, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +2 +/
    QNAP - это унылое SOHO в лучшем случае.
     
  • 6.95, пох. (?), 09:26, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > QNAP так не считает и все расставила по своим местам. Какая трагедия для Линуксоидов.

    даже мелкая помойная лавка начала переходить на линукс - какая трагедия для глупых фанатов.

    Пока да, только те коробочки что подешевле. Но не беспокойся, те что подороже тоже там же будут. Как уже произошло с iX. Пупсики хочуть доскер. Зачем им докер на _сторадже_ - сами не знают, но так модно, так у всех, подавайте и нам.

    https://ps.reddit.com/r/DataHoarder/comments/mmjsgu/update_the_thrilling_concl

    все что надо знать о "качестве" и "ентер-прайсности" qnap.

    Ну если вам истории с remote root, который пол-года не могли исправить, недостаточно было бы.

    Жги, Г-ди! Нет тут праведников.

     
     
  • 7.119, bOOster (ok), 12:33, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Ты бы вниматель thread прочитал - "We jumped away to another BSD/ZFS based vendor and are pretty happy so far."
    И никто не хочет линукс никак. Вернее происходит все с точностью наоборот что ты тут накалякал. Enterprise идет в BSD и линукс в домашние помойки..
    А весь докер под FreeBSD замечательно разруливается jailами без топорности тормознутости докера.
     
     
  • 8.131, Аноним (128), 13:32, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Утверждение - ниочём Dell EMC - на 5-6 чентоси, а касательно самого овняного De... текст свёрнут, показать
     
  • 8.234, пох. (?), 23:16, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Еще один любитель подменять тему Речь шла - об ентерпрайзности а по факту кит... большой текст свёрнут, показать
     
  • 7.121, andy (??), 12:41, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Спасибо за ссылку.
     
  • 5.66, Аноньимъ (ok), 07:33, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Вы можете отключив зфс фичи и покрутив настройки затюнить её до состояния XFS и дальше.

    Только смысла нет, отказываться от функционала.

     
  • 5.260, kissmyass (?), 16:36, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    брехня, если бы лично не сравнивал на больших файлах XFS и EXT4, то может быть и повелся бы
     
  • 4.39, Док (?), 05:07, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Ты полный бред несешь. Может потому что ты банальный неуч и неудачник по жизни
     
     
  • 5.44, СлышЭ (?), 06:11, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Твой порт всё дудосил!
     

     ....большая нить свёрнута, показать (39)

  • 1.15, Ivan_83 (ok), 02:57, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    Кто то использует для себя или в проде?
     
     
  • 2.17, Аноним (18), 03:01, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Поставили на нее постгрес, выжрало 200 гигов оперативки (не считая стандартного кэша, который reclaimable). Норм.
     
     
  • 3.49, bOOster (ok), 06:37, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Ты наглядно показал свой уровень администратора. Ниже плинтуса. Руководитель этого чудика есть тут? Гоните его в шею...
     
     
  • 4.52, Аноним (7), 06:48, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Речь об использовании своего кеша и перевода primarycache в metadata?
     
     
  • 5.54, bOOster (ok), 06:50, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Речь об использовании своего кеша и перевода primarycache в metadata?

    А теперь давай перевод сего перла в терминах именно ZFS.

     
     
  • 6.57, Аноним (7), 07:00, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    primarycache=all - это кеширование arc'ом буквально всего, а metadata - тут все и так понятно. Проще говоря, используем родной высокоэффективный кеш постгреса и запрещаем кешировать данные базы arc'ом. Или вы имели в виду что-то другое?
     
     
  • 7.63, bOOster (ok), 07:27, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –3 +/
    > primarycache=all - это кеширование arc'ом буквально всего, а metadata - тут все
    > и так понятно. Проще говоря, используем родной высокоэффективный кеш постгреса и
    > запрещаем кешировать данные базы arc'ом. Или вы имели в виду что-то
    > другое?

    Кэширование кэшей бд и т.п. ZFSом даже звучит глупо. Эти вещи надо выделять на отдельные SSD и т.п.

     
     
  • 8.72, Аноним (7), 07:57, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Сдаюсь ... текст свёрнут, показать
     
  • 7.65, bOOster (ok), 07:32, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > primarycache=all - это кеширование arc'ом буквально всего, а metadata - тут все
    > и так понятно. Проще говоря, используем родной высокоэффективный кеш постгреса и
    > запрещаем кешировать данные базы arc'ом. Или вы имели в виду что-то
    > другое?

    Да, чтобы система была эффективна ВСЕГДА необходимо ручками поработать и головой. Создатель системы и файло-системы не знает о твоих задачах.

     
     
  • 8.106, Аноним (106), 10:53, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    В винде ты просто форматируешь в NTFS и оно просто работает И под базу и под иг... текст свёрнут, показать
     
     
  • 9.117, Аноним (-), 12:23, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    А в огороде бузина ... текст свёрнут, показать
     
  • 9.137, Аноньимъ (ok), 13:52, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Эм, нет Высоконагруженой базе всегда нужен тюнинг ФС в том или ином виде А на ... текст свёрнут, показать
     
     
  • 10.145, Аноним (128), 14:02, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Эм да, в данном случае это особенность ЗФС Приходится иногда тюнить настройки к... текст свёрнут, показать
     
     
  • 11.151, Аноньимъ (ok), 14:18, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    А другие ФС могут У них внутри ИИ-гномик сидит который волшебным образом понима... текст свёрнут, показать
     
  • 9.139, iZEN (ok), 13:54, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Получить возможность создать программный RAID-5 можно, начиная только с Windows ... текст свёрнут, показать
     
     
  • 10.165, Пикапика (?), 16:42, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –5 +/
    Windows 10 Pro 500 рублей цена вопроса на авито, ну или 400 на ибей ... текст свёрнут, показать
     
  • 5.253, Juha (ok), 10:41, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Речь идет как обычно о газификации лужи.
    -- "Что бы работало хорошо надо все сделать верно, но тебе я не скажу как верно, ты там сам разрули и догадайся. И вообще ты ****".
    От таких советчиков лучше держатся подальше.
    А так да, жрет zfs как не в себя.
     
  • 2.20, Аноним (20), 03:15, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Для виртуализации дома - шикарная вещь!
     
     
  • 3.22, Аноним (18), 03:18, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Дома - сойдет. А вот при продовой нагрузке никакой памяти не напасешься.
     
     
  • 4.29, Аноним (20), 03:24, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Аппетит arc легко унять с помощью zfs_arc_max, но правильный подход состоит в том, чтобы определить необходимый размер для ваших типичных нагрузок по попаданиям в кеш.
     
     
  • 5.75, Амоним (?), 08:08, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Размер то можно еще как-то контролировать, а вот распределение нет. Поэтому получается что спустя какое-то время памяти вроде еще предостаточно, только на физическом уровне она фрагментирована безбожно. Запрашиваешь мегабайт - получаешь мегабайт, логически цельным куском, физически из ошметков памяти.  
     
     
  • 6.281, xss (?), 16:43, 14/10/2021 [^] [^^] [^^^] [ответить]  
  • +/
    А давно ли оперативка является линейным хранилищем?
    Можно расшифровать RAM?
     
  • 5.254, Juha (ok), 10:49, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Как только ограничиваем память, тут же скорость падает, причем да же ниже чем старый mdadm на ext4. Никак не лечится, увы и ах. Нужна скорость, Вам не в ZFS, какая бы она не была классная.
     
  • 2.34, iCat (ok), 04:53, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    И дома, и на производстве.
    Но не в качестве одной-единственной-универсальной файловой системе.
     
     
  • 3.192, Ivan_83 (ok), 03:40, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    А как у вас с рекавери?
    Ну те при каких обстоятельствах теряли данные?
     
     
  • 4.194, iCat (ok), 06:20, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > А как у вас с рекавери?
    > Ну те при каких обстоятельствах теряли данные?

    Я ж написал: тогда жёсткий диск кирдыкнулся. Напрочь.
    Хорошо - у беня бэкапы всегда 3-2-1:
    - минимум 3 копии
    - минимум на 2 независимых носителях
    - минимум 1 копия в другом здании

     
     
  • 5.196, Ivan_83 (ok), 06:56, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    А без бэкапов на ZFS жить совсем никак?
    Ну типа как у меня сейчас зеркало геомом а поверх юфс2 и потерю одного диска я переживу.
     
     
  • 6.198, iCat (ok), 08:07, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > А без бэкапов на ZFS жить совсем никак?

    Да легко!
    Делаем пул из двух дисков, назначаем избыточность=2 и только в путь!
    Можно слепить пул из трёх дисков, и назначить избыточность=3...
    Простецкий RAID-Z из четырёх дисков...
    Там много чего можно "нарисовать"...


     
  • 6.217, iZEN (ok), 13:03, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > А без бэкапов на ZFS жить совсем никак?

    Бэкапы и RAID — две ортогональные технологии хранения данных.
    Одна отвечает за сохранность (даже в оффлайн), другая — за бесперебойность работы.

     
  • 2.48, bOOster (ok), 06:34, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    "Ты у мамы дурачек?"

    https://www.qnap.com/en/product/series/enterprise

    Да еще и на FreeBSD по совместительству.

    Какая трагедия для Линуксоидов.
    QNAP все расставила по своим местам
    QTS - Entry and Mid level Linux based system.
    QES - Enterprise level FreeBSD based system

     
     
  • 3.133, Аноним (128), 13:39, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    А в чём трагедия-то? Кончай бухать.
     
  • 3.191, Ivan_83 (ok), 03:36, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Я поинтересовался как у людей которые её юзают дела И я не линуксойд, у меня фр... большой текст свёрнут, показать
     
     
  • 4.201, bOOster (ok), 11:01, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    >[оверквотинг удален]
    > потерять не хочу и бэкапить мне это некуда.
    > При этом фичи в виде кеша и *как её там, когда оно
    > пишет каждый раз в новое место при измении файла* мне не
    > интересны, а вот крипта интересна.
    > Идея в том, чтобы повысить надёжность и упростить менеджмент.
    > 2. У нас на работе юзается фря и зфс, но нам не
    > хватает спеца по зфс который хотя бы мог консультировать. Пока оно
    > тупо работает в дефолтах. И у меня есть подозрения что феолты
    > не очень, особенно в том месте где используется geom mirror для
    > зеркалирования на второй диск вместо средств самой zfs.

    Geom/mirror Geom/Geli swap тут развлекаюсь. А если и ELI, не даели с флешкой, которая загрузочная

     
  • 4.213, iZEN (ok), 12:26, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > 2. У нас на работе юзается фря и зфс, но нам не
    > хватает спеца по зфс который хотя бы мог консультировать. Пока оно
    > тупо работает в дефолтах. И у меня есть подозрения что феолты
    > не очень, особенно в том месте где используется geom mirror для
    > зеркалирования на второй диск вместо средств самой zfs.

    :facepalm:

    Я уже перестал удивляться той среде, в которой ты существуешь. Найти проблемы в перегреве VRM Gigabyte в дросселях с лого (и ничем другим) — это нужно иметь особенные мозги.

     
  • 3.247, Минона (ok), 09:12, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    забавно что в TrueNAS решили сделать наоборот =)
     
  • 2.51, bOOster (ok), 06:40, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    https://www.qnap.com/en/product/series/enterprise

    Да еще и на FreeBSD по совместительству.

    ПыСы. Для удаляющих - кому адресовано предыдущее удаленное сообщение было - он его получил.

     
  • 2.69, Аноньимъ (ok), 07:43, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Дома норм, пару сгнивших блоков данных отловил.
    Каши не просит. Кеширование работает очень неплохо.
     
     
  • 3.91, Онаним (?), 09:17, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –3 +/
    Что за дерьмо, простите, вы юзаете на подложке, что у вас родной ECC накопителя "сгнившие блоки" не отлавливает? Какие-нибудь доисторические б/у WD, на авито купленные?
     
     
  • 4.98, Аноньимъ (ok), 09:54, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Контролируйте свой пожар.

    Биты могут флипаться где угодно.

    На больших объёмах и временных промежутках неисправимые ошибки неизбежны.

    Накопитель же, если и отловит, то не скажет какой файл повреждён.

     
     
  • 5.99, Онаним (?), 10:03, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Чувак Эти сказочки о битфлипах на накопителях и волшебной ZFS - со времён царя ... большой текст свёрнут, показать
     
     
  • 6.101, Онаним (?), 10:07, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Современная архитектура систем хранения такова, что ECC/CRC покрыто всё.
    И если ещё память покрыть ECC (что по сути давно должно было стать нормой, процесс тормозил только штеуд, не запиливавший ECC в десктопы) - единственным местом, где что-то может совсем уж бесконтрольно флипнуть, остаётся сам CPU. Такие дела.
     
  • 6.104, пох. (?), 10:50, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Чувак. Эти сказочки о битфлипах на накопителях и волшебной ZFS - со времён царя Гороха - только
    > сказочки.

    угу, главное ж свято веровать.

    В волшебную ECC, например.

    И ни разу не прочитать ни одного учебника по теории кодирования.
    После чего "сказочки" внезапно превращаются в банальную статистику, а к людям, сующим свой "CRC" куда надо и куда не надо - возникают очень интересные вопросы. Например - какой длины был исходный полином и почему НИГДЕ этой информации нет. И, отдельно - а почему у нас ДВА crc (на самом деле их пять но про остальные успели забыть вчерарожденные).

    А если еще немножко знать о том, как prml диски читают 'данные' методом угадава, то жизнь станет совсем непрекрасной, зато удивительной.

     
  • 6.107, Битфлип (?), 11:06, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Чувак, о моём отсутствии расскажи вон тем четырём торрентам хозяина этого компа, стоящим на 99.9%
    Один блок не находится в сети, хоть ты тресни.
    При этом, видеоряд без глюков, jpeg без глюков.
    А это потому, что у автора торрент при хэшировании словил меня :)
     
     
  • 7.152, Аноним (4), 14:22, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    >99.9%

    Похоже на давний баг некоторых клиентов, например, у меня на transmisson такая ерунда была. Вроде исправили уже несколько раз.

     
  • 4.143, edo (ok), 13:59, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > Что за дерьмо, простите, вы юзаете на подложке, что у вас родной ECC накопителя "сгнившие блоки" не отлавливает? Какие-нибудь доисторические б/у WD, на авито купленные?

    Гелиевые 16ТБ от сигейта, например.
    Сначала zfs поругался на чексуммы, через несколько дней и релокейты/ошибки чтения появились.

     
  • 2.132, Аноним (128), 13:35, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Используем ту версию ZFS, что идёт в бубунте 20.04. Полёт нопмальный, лямы OIPS.
    Всё что было раньше - спотыкалось на read-range locks. Так исторически сложилось, что б-жэственная ЗФС изначально не предназначена была для нагрузок, типа СУБД. Но где-то в 2019 году это подправили. Я доволен.
     
  • 2.156, iZEN (ok), 15:00, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > Кто то использует для себя или в проде?

    OpenZFS стала менее предсказуемой в режиме восстановления. Поэтому постепенно перевожу единичные носители на проверенную годами UFS2+SU.


     
  • 2.250, 1 (??), 09:30, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    FreeNAS используем в роли файлопомойки ...
    Вполне себе ничего ... пару дисков отправились в цифровой рай - без проблем.

    На новых дисках не пробовали - стоят 6Тб от сигейта и хитачи.

    Работает и работает.

     
  • 2.264, Tualua (?), 19:31, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Ну я использую. 30Тб данных (SSD), striped raidz1. 50 вм, нагрузка на дисковую не очень большая, но постоянные send/recv, клоны, снапшоты, откаты. Все отлично работает
     

     ....большая нить свёрнута, показать (48)

  • 1.37, Док (?), 05:05, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Не самая быстрая фс зато удобная. Убунта, hdd, ssd - все норм уже полгода
     
     
  • 2.41, Хан (?), 05:20, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Скорость уже давно променяли на надежность и это как не странно нормальн, ведь если данные потеряны кому какая разница какая там скорость
     

  • 1.42, Аноним (42), 06:08, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    CDDL - УГ-розовой-снежинки нельзя допускать к чему-либо стоящему.
     
  • 1.47, bOOster (ok), 06:29, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • –4 +/
    У писаки новости когнитивное расстройство?
    Насколько я помню у проекта созданного Illumos всегда было только одно название OpenZFS.
    А ZoL это достаточно корявый проект (со стороны лицензирования) по интеграции OpenZFS в ядро Linux. И это погоняло "ZoL" официально не существовало, кроме как в воспаленных мозгах фанатиков пингвина.
     
     
  • 2.96, Аноним (96), 09:27, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +3 +/
    "ZFS on Linux" много лет развивался параллельно с ZFS от Illumos как отдельный форк для Linux. Раньше OpenZFS было названием инициативы для взаимодействия и обмена патчами команд, занимавшихся ZFS в Linux, FreeBSD, macOS и Illumos. После того как  "ZFS on Linux" портировали для FreeBSD и стало очевидно, что по функциональности и уровню сопровождения он давно перерос ветку от Illumos, создали новый репозиторий OpenZFS, поместили туда код "ZFS on Linux" и объявили, что теперь будут разрабатывать "ZFS on Linux" под этим именем. До этого OpenZFS никакая редакция не называлась.
     
     
  • 3.120, Аноним (-), 12:38, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > После того как  "ZFS on Linux" портировали для FreeBSD и стало очевидно, что по функциональности и уровню сопровождения он давно перерос ветку от Illumos, создали новый репозиторий OpenZFS,

    ZoL выбрали (и портировали) как раз из-за окаменения иллюмос-апстрима ...


     
     
  • 4.227, пох. (?), 18:57, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Боюсь, таки это был просто удобный предлог.

    Выбрали ее дЭффективные менеджеры, те же самые, что следующим же ходом "выбрали" в качестве платформы для будущих новых версий truenas ("случайно" платящего зарплаты всем ключевым разработчикам) линoops вместо фри.

    Все ключевые технологии отсутствовавшие на тот момент в ZoL, но наличествовавшие в bsd и важные для промыва ушей клиентам - влиты, включая героическую поебду над discard. Может толком и не работают даже, но галочки в промо-материалах стоят в нужных клеточках. Иначе клиенты могли не оценить и перестать заносить новые транши. А больше ваша bsd низачем не нужна, проект можно закрывать и увольнять ненужных более мавров.

    С прикручиванием influxdb справятся и студенты на гранты delphix.

     
  • 4.229, Аноним (-), 21:23, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    >> После того как  "ZFS on Linux" портировали для FreeBSD и стало очевидно, что по функциональности и уровню сопровождения он давно перерос ветку от Illumos, создали новый репозиторий OpenZFS,
    > ZoL выбрали (и портировали) как раз из-за окаменения иллюмос-апстрима ...

    И портировал ее, судя по всему, Мейси "Вайргард"
    https://lists.freebsd.org/pipermail/freebsd-current/2018-December/072440.html
    Это все, что нужно знать о "качестве" ZoL.

     
  • 3.122, bOOster (ok), 12:44, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Если бы он реально развивался параллельно Illumos то давно бы был под родной GPL лицензией. А так ваши потуги очередной раз притянуть код под лицензией CDDL в достоинства линуксописателей, оправдывая это какой-то чушью из вики - очередной раз смешны...
     
     
  • 4.134, Аноним (128), 13:44, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > А так ваши потуги очередной раз притянуть код под лицензией CDDL в достоинства линуксописателей

    Она изначально была под CDDL, долбонашка. А линуксоиды, которые тебе так не нравятся, занимаются развитием ФС. И той самой прослойки SPL, которая и на твоей бздшэчке используется. И преобразование семантики из соляро-вантузной(которая в соляре) в нормальную линуксовую, и попутно бздэшную - сделали почти полностью линуксоиды.

     
     
  • 5.149, Аноним (-), 14:10, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > И преобразование семантики ... и попутно бздэшную - сделали почти полностью линуксоиды.

    Какая занимательная (нет) хрень ...


     
  • 5.176, Хан (?), 18:51, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Какую ФС линуксоиды смогли создать сами? Серию кривых ext, которая только к четвертой версии смогла сравнятся с древней XFS?... но так и не сравнялась ведь ведущие коммерческие дистрибьютивы предлагают в 2021 всю ту же пропатченную XFS 30 летней давности как нечто новое, модное и молодежное
     
     
  • 6.187, пох. (?), 01:20, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    _та_ древняя xfs была точно таким же дерьмом как ранние ext или даже хуже.

    С лимитом в 2 гигабайта и прочими прекрасными унаследованными фичами времен "когда компьютеры были большие".

    > всю ту же пропатченную XFS 30 летней давности

    не ту же. От той очень мало что осталось, к счастью. Этой в целом можно было бы пользоваться - если бы она хоть что-то из современных требований умела (без помощи франкенштейна из lvmных прослоек). А они - вот - смотрите, смотрите - уже почти но еще не осилили уменьшение разделов!
    Которое скоро уже и не нужно никому будет совсем.

     
  • 6.208, RudW0lf (?), 11:45, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    А в чем корявость ext4? xfs например нельзя шринкнуть, а ext4 можно(регулярно пользуюсь), то что в дистрибах по умолчанию обычно расчитано на ленивых админов но не как не лучший выбор
     
  • 5.202, bOOster (ok), 11:03, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    >> А так ваши потуги очередной раз притянуть код под лицензией CDDL в достоинства линуксописателей
    > Она изначально была под CDDL, долбонашка. А линуксоиды, которые тебе так не
    > нравятся, занимаются развитием ФС. И той самой прослойки SPL, которая и
    > на твоей бздшэчке используется. И преобразование семантики из соляро-вантузной(которая
    > в соляре) в нормальную линуксовую, и попутно бздэшную - сделали почти
    > полностью линуксоиды.

    Мне интересно 5000 знают они что це такэ)

     
  • 2.110, Moomintroll (ok), 11:12, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    https://en.m.wikipedia.org/wiki/OpenZFS

    > 2008: Development of a native ZFS Linux port started, known as ZFS on Linux.
    > 2010: illumos was forked from OpenSolaris as its open-source successor

    Вы станете возражать, что википедия не является официалтным источником информации о ZFS и OpenZFS, но официальный FAQ ссылается именно на эту ствтью: https://openzfs.github.io/openzfs-docs/Project%20and%20Community/FAQ

    > Additional information about OpenZFS can be found in the OpenZFS wikipedia article.

     
     
  • 3.172, Хан (?), 18:29, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –3 +/
    Не хило ты факты тасуешь, а теперь ответь на один простой вопрос? У кого линуксоиды сперли код под сановской CDDL? Не у OpenSolaris случайно?
     
     
  • 4.188, пох. (?), 01:45, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    линуксоиды, ага, размечтался Там оба источника написаны одними и теми же ребя... большой текст свёрнут, показать
     
     
  • 5.189, Хан (?), 02:37, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Угу, хорошая фэнтэзя прям за душу берет... особенно 2008 год и FreeBSD 7 с ZFS на борту
     
     
  • 6.210, Аноним (215), 11:59, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Ты все еще не научился пользоваться логами vcs r168404 124 pjd 124 2007-... большой текст свёрнут, показать
     

  • 1.50, Аноним (-), 06:37, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    Ещё бы swap довели до работоспособного состояния, а то он как бы есть, но вызывает гарантированный капут https://github.com/openzfs/zfs/issues/7734 . Того глядишь и hibernation на hdd заработает. Неужели нет башковитых, которые способны это поправить?
     
     
  • 2.53, bOOster (ok), 06:48, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > Ещё бы swap довели до работоспособного состояния, а то он как бы
    > есть, но вызывает гарантированный капут https://github.com/openzfs/zfs/issues/7734
    > . Того глядишь и hibernation на hdd заработает. Неужели нет башковитых,
    > которые способны это поправить?

    SWAP в ZFS пихать?? Да вы знаете толк в извращениях.. И все только ради того чтобы ручками изначально диск не разбивать? Дабы выделить место под SWAP?

     
     
  • 3.74, Аноньимъ (ok), 08:07, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Ну, сжатие свопа и динамическая аллокация места полезные вещи.

    Впрочем, лично я противник гибернации. Это было ещё ок на 8Гб ОЗУ но с 16+ слишком непрактично по скорости для ССД. Не говоря уже о других проблемах.

     
     
  • 4.126, Аноним (4), 12:54, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    64 гб озу скидываются на диск за 5 секунд или около того. Это при условии, что они скидываются все.
     
  • 3.79, Аноним (-), 08:25, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Вы из тех, кто придерживается идеи: "При операциях достаточно продезинфицировать инструменты, руки мыть не нужно"? Поэтому вас не смущает, что кусок ram будет "на изначально, не извращённо разбитом куске одного hdd ручками" с неизвестным состоянием? Вам не zfs нужен, а /dev/random, пользуйтесь.
     
     
  • 4.244, bOOster (ok), 06:55, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > Вы из тех, кто придерживается идеи: "При операциях достаточно продезинфицировать инструменты,
    > руки мыть не нужно"? Поэтому вас не смущает, что кусок ram
    > будет "на изначально, не извращённо разбитом куске одного hdd ручками" с
    > неизвестным состоянием? Вам не zfs нужен, а /dev/random, пользуйтесь.

    Че за бред? Ты вообще в курсе что такое SWAP то? И как он работает? И что SWAP был задолго до ZFS?

     
  • 3.162, Аноним (161), 15:51, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    как насчет того, что zfs рекомендует отдать диск целиком?
     
     
  • 4.182, пох. (?), 22:33, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +2 +/
    это рекомендация из solaris, как обычно, имеющая мало отношения к openzfs.
    У тех-то своп работает.

    Вот что делать владельцам пулов с raid/mirror - действительно не вполне очевидно. Впрочем, своп в современных системах немодно, и проще его отключить совсем.

     
     
  • 5.184, Аноним (161), 00:00, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > это рекомендация из solaris, как обычно, имеющая мало отношения к openzfs.

    очень интересно. стало быть официальная документация по openzfs вот тут вот https://openzfs.github.io/openzfs-docs/Performance%20and%20Tuning/Wo рассказывает все таки про соляру.

     
     
  • 6.185, пох. (?), 01:04, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    ну, так и есть - тычешь там в линк с _объяснениями_ то на что у тебя ссылка - э... большой текст свёрнут, показать
     
     
  • 7.190, Аноним (161), 02:53, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > On Linux, the Linux IO elevator is largely redundant given that ZFS has its own IO elevator.

    причем последний включается, если отдавать диск, а не раздел

    >А на деле как никто не мог десять лет назад победить need_free(), так и посейчас #ifdef solaris...
    > Зато, вот, influx db. Именно эта фича была необходимейшей! (нет. именно такие фичи только и умеют запилить макаки, дорвавшиеся до права комитов. Впрочем, их менеджеры именно такого и ждут.)

    как написано прямым текстом в емнип репорте про гибернацию, они работают в интересах их ынтерпрайз клиентов

     
     
  • 8.212, Аноним (215), 12:17, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    скорее всего это тоже бредни Вот про бессмысленный битик в заголовке - это похо... большой текст свёрнут, показать
     
  • 4.204, bOOster (ok), 11:35, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > как насчет того, что zfs рекомендует отдать диск целиком?

    А голову включить?

     
  • 2.73, Аноньимъ (ok), 08:04, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Это скорее особенность работы линукса с памятью... Чем проблема зфс.
    Если хотите свап на зфс то нужно внимательно всё настроить.

    На линуксе похожие проблемы возникают при записи на флешку - система может повиснуть.

     
     
  • 3.80, Аноним (-), 08:31, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Подскажите как правильно, а то в рекомендациях OpenZFS есть инструкция и на следующей строчке "не работает, не используйте", судя по issue - никто до сих пор не смог "правильно" настроить.

    Из-за флешки система ни разу не висла, если это важно.

     
     
  • 4.100, Аноньимъ (ok), 10:04, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ну с ходу, свапинес в 100 выставить.
    А вытеснение кешей в 200(или 1), в зависимости от логики.
    Сжатие свопа(забыл как оно называется)  которое страницы памяти сжимает, отключить.
    Кеши зфс настроить так, чтобы они не занимали больше трети ОЗУ. Впрочем 10% скорее. Как кеши записи так и чтения. Особенно записи конечно в данном случае.

    Ну и я не в курсе, но по идее вся запись на раздел со свапом должна быть синхронной.

    И чексуммы отключить если свап не зеркальный.

     
  • 4.103, iZEN (ok), 10:50, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +2 +/
    SWAP на FreeBSD средствами ZFS:
    zfs create -V 4G poolname/swap
    zfs set org.freebsd:swap=on poolname/swap
    zfs set compress=off poolname/swap
    zfs set sync=disabled poolname/swap
    zfs set dedup=off poolname/swap
    zfs set primarycache=none poolname/swap
    swapon /dev/zvol/poolname/swap
     
  • 4.111, Аноним (-), 11:22, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Аноньимъ и iZEN,
    Понимаю, что вы хотите блеснуть рабочим решением, но для начала сами попробуйте прогнать stress-ng --vm 8 --vm-keep --vm-bytes 120% с вашими настройками. Никакой "свапинес", тем более 100 - не поможет, "sync=disabled" https://github.com/openzfs/zfs/issues/7734#issuecomment-723621594 вообще из разряда вредных советов. Выше есть ссылка с обсуждением этой "признанной" проблемы с логами, никакой волшебной пилюли нет.
     
     
  • 5.144, Аноньимъ (ok), 14:01, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    >вообще из разряда вредных советов. Выше есть ссылка с обсуждением этой "признанной" проблемы с логами, никакой волшебной пилюли нет.

    Если я ничего нее путаю, то, если не отключить синхронную запись, диск и ЗФС будет делать двойную работу, вначале писать в log на диске, а потом переписывать из него опять на диск уже в нормальном виде.
    Поправьте меня если что.

    Разбираться в этих тестах неохота, фря у меня никогда не залипла со свопом на ЗФС, тестировал сборкой древа портов которая сожрала неприличный объём ОЗУ.

     
     
  • 6.153, iZEN (ok), 14:25, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > Если я ничего нее путаю, то, если не отключить синхронную запись, диск
    > и ЗФС будет делать двойную работу, вначале писать в log на
    > диске, а потом переписывать из него опять на диск уже в
    > нормальном виде.
    > Поправьте меня если что.

    У CoW ФС log является самой файловой системой, вообще-то. Когда в него что-то пишется, он в это время является log'ом, когда записалось — уже частью пользовательских данных. Таким образом, ничто никуда повторно не переписывается, а просто местоположение меняет статус.

     
     
  • 7.154, Аноньимъ (ok), 14:48, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    ЗФС работает не так, погуглите. ЛОГ у неё отдельный.
     
     
  • 8.155, iZEN (ok), 14:52, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    ZIL будет отдельным, если его специально обозначить для пула на отдельном носите... текст свёрнут, показать
     
     
  • 9.160, Аноньимъ (ok), 15:38, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Нет, ZIL присутствует в виде спец области на блочном устройстве - https jrs-s ... текст свёрнут, показать
     
     
  • 10.259, Juha (ok), 15:08, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    По Вашей же ссылки написано что ZIL не равно SLOG в плане хранилища То есть Z... текст свёрнут, показать
     
     
  • 11.263, Аноньимъ (ok), 18:36, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Так я и не писал нигде что равно ... текст свёрнут, показать
     
  • 9.163, Аноним (4), 16:03, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Intel Optane ... текст свёрнут, показать
     
     
  • 10.170, Аноньимъ (ok), 17:23, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Оптан хороший вариант, так как у него малые задержки Важно чтобы накопитель не ... текст свёрнут, показать
     
  • 7.200, Аноньимъ (ok), 10:32, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Я выше конечно наврал.
    Из лога переписывать не будет. Будет писать из ОЗУ.
    Но лог(zil) таки отдельная область на диске и данные будут записаны дважды.
    В случае синхронной записи.

    Когда запрос не синхронный данные в лог не попадают вообще, и пишутся только в кеш ОЗУ.

     
  • 5.193, Ivan_83 (ok), 05:19, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    А расскажите о проблемах зфс подробнее.
    Насколько оно устойчиво при заполнении 99%?
    Насколько легко потерять данные с вылетом одного диска если делать зеркалирование средствами зфс?
    Как там с криптой?
     
     
  • 6.243, bOOster (ok), 06:42, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > А расскажите о проблемах зфс подробнее.
    > Насколько оно устойчиво при заполнении 99%?
    > Насколько легко потерять данные с вылетом одного диска если делать зеркалирование средствами
    > зфс?
    > Как там с криптой?

    GMIRROR и GELI, но линуксоиды этой стройной системой обделены..

     
  • 4.125, Хан (?), 12:46, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Хочешь ZFS ставь FreeBSD и не делай людям мозги
     
     
  • 5.136, Аноним (128), 13:50, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Хочешь ZFS ставь Ubuntu и не делай людям мозги
     
  • 5.236, пох. (?), 23:28, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Хочешь ZFS ставь FreeBSD и не делай людям мозги

    какой смысл ставить мертвую систему чтобы получить тот же самый дельфиксовый zfs ?

    Баги в котором не исправляют годами потому что "у нас нет ресурсов"(c)

    ставь бубунточку, тебе анон все правильно посоветовал. Или забей и ставь дисяточку. Там нормальные storage spaces, с нормальной refs, правда, павершел придется выучить - полноценный гуй обещали только в 11.

     
     
  • 6.269, bOOster (ok), 06:16, 07/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    >> Хочешь ZFS ставь FreeBSD и не делай людям мозги
    > какой смысл ставить мертвую систему чтобы получить тот же самый дельфиксовый zfs
    > ?
    > Баги в котором не исправляют годами потому что "у нас нет ресурсов"(c)
    > ставь бубунточку, тебе анон все правильно посоветовал. Или забей и ставь дисяточку.
    > Там нормальные storage spaces, с нормальной refs, правда, павершел придется выучить
    > - полноценный гуй обещали только в 11.

    storage spaces это вообще корявая поделка в попытке догнать enterprise FS. Чего стоит только то что для кэширования ты можешь использовать ТОЛЬКО четное количество дисков если в зеркале диски стоят.

     
  • 3.135, Аноним (128), 13:49, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > На линуксе похожие проблемы возникают при записи на флешку - система может повиснуть.

    С отдельным kthread? Повиснуть? Ты наверное не видел линукса после 2.6.38.
    Просто я, на своей бубунтячке 20.04 часто использую медленные старые флешки, процесс копирования на которые подвисает на уровне kthread по причине чрезмерного заполнения кэшей, но сама система - так же отзывчива.
    Строго говря - 12309 вывели в отдельный поток.

     
     
  • 4.148, Аноньимъ (ok), 14:10, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Приложение все равно же может повиснуть, которое копирует?
    И потом если попытаться в момент этого затыка открыть диск в файловом менеджере.
    или если браузер или любая другая программа запомнили его где-то и при запуске или открытии окна сохранения файла решили пропинговать.

    И с сетевыми дисками у меня проблемы похожего характера.

     
     
  • 5.205, bOOster (ok), 11:37, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > Приложение все равно же может повиснуть, которое копирует?
    > И потом если попытаться в момент этого затыка открыть диск в файловом
    > менеджере.
    > или если браузер или любая другая программа запомнили его где-то и при
    > запуске или открытии окна сохранения файла решили пропинговать.
    > И с сетевыми дисками у меня проблемы похожего характера.

    FreeBSD - нет, не может..

     
  • 4.150, Аноньимъ (ok), 14:14, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    >Ты наверное не видел линукса после 2.6.38

    Старые линуксы у меняя вываливались в кернел паник частенько, впрочем кноппикс пробовал основательно, и никаких проблем не было с ним от слова совсем.
    Никаких залипаний и прочего.
    Причем работал он с сиди диска.
    СД диска, Карл.
    И с флешки отлично работал.

    Работал отлично и без проблем и боли, я прям прослезился, что с линуксом стало? Зачем убили десктопный линукс?

     
  • 4.195, Аноним (195), 06:48, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +2 +/
    У меня всегда свежее ядро.
    Недавно система начала виснуть, когда копировал на флешку гигабайты.
    Жалкой ноунейм юсб 2.0 флешке система выдаёт первую космическую скорость, а потом система висит, пока файл не перенесётся полностью самом деле.
    Решается подключением флешки с синхронизацией, где показывает честные несколько сотен кб в сек.
     

     ....большая нить свёрнута, показать (38)

  • 1.76, Ю.Т. (?), 08:09, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Кто лично работал, как данные на ZFS после сбоев питания? После аппаратного reset?
     
     
  • 2.81, Аноним (-), 08:33, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    >Кто лично работал, как данные на ZFS после сбоев питания? После аппаратного reset?

    Не знаю.

     
  • 2.83, Яровая (?), 08:49, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    На Солярке никаких проблем с этим нет, на других системах не пользовал
     
  • 2.102, chipp (?), 10:32, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    За десяток лет эксплуатации в продакшене (пяток серверов хранения данных с разными конфигурациями zraid) данные потерял только один раз. Но там грохнулась сама железка.
     
  • 2.237, Док (?), 23:31, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Все норм. Можно включить sync и тогда данные без кеша сразу записываются
     
  • 2.240, Аноним (240), 05:37, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    ZFS транзакционная.. что записала то записала .. полфайла не сохранит
     
  • 2.267, Noob (??), 21:51, 06/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Стоит FreeNAS на домашней файлопомойке. Без UPS-a. За пять лет использования электричество рубилось сто раз. На железяку постоянно пишется поток с камеры наблюдения. Год назад начали сыпаться bad-сектора на одном из дисков. Весной этого года диск сдох. RaidZ из 4 дисков по 2Тб, 8 гигов обычной, не ECC оперативки. Поменял диск, перестроил массив. Никаких проблем. Потом решил до кучи проверить остальные три диска. В SMART - ошибки, тоже подсыпаться начали. Заменил и их, не отключая сервак. Ничего из того что лежало не пропало. Прогнал CRC по лежащим на серваке фотками и видосам. Сравнил с архивами на бэкапе, один в один. Простите хейтеры ZFS, я старался поломать, но видимо я что-то делал не так.
     
     
  • 3.271, Ю.Т. (?), 15:22, 07/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > Стоит FreeNAS на домашней файлопомойке. Без UPS-a. За пять лет использования электричество

    Спасибо, внушает.

     
  • 3.273, Котофалк (?), 10:05, 03/08/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > В SMART - ошибки, тоже подсыпаться начали. Заменил и их, не отключая сервак.

    pending sectors?


     

  • 1.84, Аноним (84), 08:52, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • –3 +/
    Зачем, если есть ext4, jfs, xfs, btrfs, reiserfs, encfs, ntfs, fat, etc
     
     
  • 2.94, Хан (?), 09:23, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Зоопарк
     
     
  • 3.138, Аноним (128), 13:53, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –5 +/
    и возможность выбора для соответствующей цели.
    Этим линукс и отличается от бздешечки, в которой - или выделите побольше ОЗУ для ЗФС и протюнингуйте её немного, или бойтесь потерь данных на UFS.
     
     
  • 4.147, Аноним (-), 14:06, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > или бойтесь потерь данных на UFS.

    ... и красной руки с черной простыней!

     
  • 3.168, Котофалк (?), 17:04, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    как что-то плохое
     
  • 2.109, Аноним (109), 11:10, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Зачем зачем, если есть fuse.
     
     
  • 3.114, Хан (?), 12:10, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    FUSE как раз таки яркий пример микроядерности в моноядре, жаль что только для ФС
     

  • 1.85, Аноним (85), 09:10, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    > InfluxDB предложена команда "zpool influxdb".

    Перед написанием новости полезно прочитать документацию.

    Нет такой команды "zpool influxdb", а есть "zpool_influxdb"! Исправьте текст новости.

    NAME
         zpool_influxdb — collect ZFS pool statistics in InfluxDB line protocol format

    SYNOPSIS
         zpool_influxdb [-e|--execd] [-n|--no-histogram] [-s|--sum-histogram-buckets] [-t|--tags key=value[,key=value]…] [pool]

     
     
  • 2.209, RudW0lf (?), 11:46, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Вообще не понятно кто инфлюксом пользуется оно же кривое все . .  . Для староверов есть графит, для хипстеров пром. Скорееивсего это хотелка какого то спонсора
     

  • 1.92, пох. (?), 09:20, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • –5 +/
    Ну вот, только "influxdb" в драйвере файловой системы нам, для полного щастия, конечно же, и не хватало. Ах, да, и "ускоренной загрузки модуля ведра", конечно же.

    Херачь молнией, Г-ди, тут уже ничего не исправить!

     
     
  • 2.116, Аноним (116), 12:13, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Лог как лог. Вам лишь бы бзднуть не разобравшись
     

  • 1.108, Плохой Танцор (?), 11:09, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Прочитав специалистов с "опеннета", очередой раз убедился что лучше ext4 и ntfs ничего нет и в ближайшие годы не предвидится.
     
     
  • 2.178, Zampolit (ok), 19:55, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    А ExFAT ?
     
     
  • 3.211, Аноним (215), 12:05, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • –2 +/
    В венде поганой все хорошо, товарищ зампоплит.
    А в линoops - китайцы ж делали, под присмотром корейского надзирателя. С соответствующими качеством и эффективностью. Немного подробностей про как они там половину спека проигнорировали и где рыбу в него заворачивали, озвучил в свое время Парагон, но это ж был кого надо код, платиновый спонсор, не хер собачий, поэтому никакого парагона слушать, конечно же, никто не стал.

    Так что пользуйтесь ntfs3g, ее нормальный грек делал. э... ну в смысле, он руководил, как вы. Делал русский, единственный из трех участников, чье имя начисто исчезло из копирайтов и из истории. Впрочем, видели его потом в городах, довольно таки отдаленных, так что он, полагаю, не бедствует.

     

  • 1.113, макпыф (ok), 11:25, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    чем оно лучше ext4?
     
     
  • 2.179, Ага (?), 21:42, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Чем ext4
     
  • 2.265, Аноним (265), 13:55, 06/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Как раз именно тем, что нужно изучать, не просто держать нос по ветру популярности, ничего не понимая.
     

  • 1.115, Аноним (116), 12:11, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    А расскажите, пожалуйста, чем история с мамр и их быстрой смертью закончилась? Нашли решение или всё так же нужно тщательно искать чтобы и без мамр, и ёмкость вменяемая?
     
  • 1.123, Хан (?), 12:45, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • –3 +/
    Близко ZFS да не укусишь))) так ведь пингвины?
     
     
  • 2.142, Аноним (128), 13:58, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    C 2013 года на ЗФС, с 2015 - в проде. И на пингвине. А шо не так?
    Пару команд для установки - осилил. Тюнинг под базы и под файло - тоже. Багу з залипшими локами - репортил.
     
     
  • 3.159, Хан (?), 15:27, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Обожаю сказочки)))
     
     
  • 4.164, лесной эльф (?), 16:12, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –2 +/
    ну и попроси мамочку, чтобы поменяла подгузник, уложила в кроватку и сказочки почитала.

    А у людей всё нормально крутится. У меня вот тоже несколько лет как на домашних компах плюс на одном из kvm гипервизоров

     
     
  • 5.173, Хан (?), 18:32, 03/07/2021 [^] [^^] [^^^] [ответить]  
  • –3 +/
    Домашние компы, KVM гипервизор, что то крутится...хммм что же это?
    Не уж то локалхост виртуализировал?
     

  • 1.177, Аноним (177), 18:54, 03/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +3 +/
    уровень дискуссии - опеннет
     
     
  • 2.203, spectator (??), 11:21, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    да, 20 лет назад было приятнее
     

  • 1.197, ананас (?), 07:52, 04/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Интересно проект развивается.
    В самом начале пилили как свободный, независящий от Sun/Oracle вариант ZFS для BSD. Когда саноракл дал свою реализацию для BSD — не забросили, а стали пилить по остальные POSIX и Posix-like , в процессе оформившись как ZFSonLinux. Когда реализация саноракла в BSD начала стагнировать — древний неподдерживаемый код с вкраплениями заплаток от тех, кто ничего твёрже джавы в руках не делал — снова стали OpenZFS и победно вернулись обратно на BSD в ещё более годном состоянии, чем когда-либо.

    Отличная, красивая история настоящего open source полёта, который показал как надо.

     
     
  • 2.207, Аноним (215), 11:43, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • –2 +/
    интерес ваши бредни представляют собой разьве что для психиатра.

     
  • 2.214, Беня Коломойский (?), 12:29, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • –2 +/
    На фряхе оно работает лучше, чем на ляликсе?
     
     
  • 3.219, Аноним (215), 13:24, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Работало, да. Никакого "influxdb" во всяком случае не пихали в код _файловой_с-ка_системы_, где ему совершенно не место.

    В силу отсутствия некоторых линoopsовых родовых травм - работало местами и неплохо. Там свои были, но их можно было исправить и даже - исправляли. Пропихнуть через вот этих вот - "мы удовлетворяем своих ентерпрайс клиентов и ваши исправления не исправления" было невозможно, но кто хотел - мог в частном порядке пользоваться.

    А потом менеджеры этих подвальных велели не выделываться, потому что "клиенты хочуть доскер!" и те быстренько слили свой проект с ZoL, который уже настолько горбат, что его только могила может исправить.

     
     
  • 4.220, Беня Коломойский (?), 15:04, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Вот читаешь доки по ZFS, вроде бы дико крутая файловая система, а на деле тормозной кусок говна, пожирающий дисковое пространство и раму.
     
     
  • 5.221, Беня Коломойский (?), 15:06, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    По крайней мере на ляликсе. Как там на фряхе и соляре не знаю, может и хорошо всё.
     
  • 5.226, пох. (?), 18:50, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Беня, такое впечатление, что вы не читаете доки, а только кокс через них нюхаете.

     
     
  • 6.228, Беня Коломойский (?), 19:48, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ты сам-то пробовал использовать это поделие на чём-либо отличном от подкроватного NASа?
     
  • 5.241, Аноним (240), 05:45, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    да пользуйтесь чем хотите.. зачем только в тему лезете со своим ненужным мнением ?

    что ни тема про freebsd или zfs то набегает куча линуксойдов и начинают чморить за ненужно...
    как itгопники...

     
     
  • 6.255, Беня Коломойский (?), 11:14, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Я использую FreeBSD, но без тормозной ZFS.
     
     
  • 7.256, Аноним (240), 12:28, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    да пилите свои велосипеды как хотите ... в целом всем ср*ть что там у вас
     
     
  • 8.257, Беня Коломойский (?), 12:39, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    Ну и пошёл ты йухан в таком случае ... текст свёрнут, показать
     
     
  • 9.258, Аноним (240), 13:51, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    да понятно с вами все руки из опы да еще и грубиян... текст свёрнут, показать
     

  • 1.223, Аноним (223), 15:19, 04/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    Боевые пингвины только в темах о фряхе и щас)
     
  • 1.224, Аноним (224), 15:22, 04/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    Так вот почему в САСШ этой зимой энергетика медным таком накрылась, в домах трубы начали лопаться - ZFS подвела; не "зелёная" ведь энергетика, которая уровня бохх, на которую они молятся сейчас.
     
  • 1.231, Аноним (231), 22:59, 04/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    А скоро на rust перепишут?
     
     
  • 2.235, пох. (?), 23:25, 04/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    > А скоро на rust перепишут?

    опять неправильно, да сколько ж можно вас обучать грамматике?!
    Скоро на хруст НАЧНУТ переписывать!

    (это утверждение, если непонятно. Возможно даже уже начинают где-то.)

     

  • 1.232, Аноним (231), 23:03, 04/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Ужас! ZFS! Rust! А что дальше?!
     
     
  • 2.249, Аноним (231), 09:18, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • +/
    А дальше анальный зонд с телеметрией!
     

  • 1.233, Аноним (231), 23:13, 04/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Все эти псевдо Open чтобы нагнуть пингвина! Не ведитесь на это!!!
    Всё идёт по пути Chromium!
    Сначала нагнут сделают OpenФигню - нагибают раком!
    Ждут пока наберётся процент рынка - тем временем раздвигая булки!
    А потом сделают vendor-lock - и наконец-то имеют во все щели!

    Выводы уже сделаны, если вы нагнулись раком, то рано или поздно вам вставят!

     
     
  • 2.268, Google (?), 21:55, 06/07/2021 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ждем когда ты наконец напишешь свой первый "Hello world!", чтобы сразу его присвоить!
     

  • 1.238, Аноним (231), 23:35, 04/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Linux BDSM какой-то!
     
  • 1.239, Док (?), 23:36, 04/07/2021 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Комментарии похожи на вопли сумасшедших не умеющих даже хоум папку перенести с одного диска на другой но лезущих писать про zfs
     
     
  • 2.248, Аноним (231), 09:18, 05/07/2021 [^] [^^] [^^^] [ответить]  
  • –1 +/
    По себе судить не надо.
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру