После двух месяцев разработки Линус Торвальдс представил (https://lkml.org/lkml/2017/7/2/164) релиз ядра Linux 4.13 (https://www.kernel.org/). Среди наиболее заметных изменений: в состав включены планировщики ввода/вывода BFQ и Kyber, для live-патчей реализована гибридная модель обеспечения непротиворечивости, добавлен модуль dm-integrity, интегрирован фреймворк TEE (Trusted Execution Environment), в MD RAID5 добавлена поддержка частичного лога чётности, в blk-throttle обеспечена поддержка "мягких" лимитов, в поставку добавлена утилита "AnalyzeBoot".В новую версию принято более 13 тысяч исправлений от 1500 разработчиков,
размер патча - 89 Мб, что примерно в два раза больше, чем патч для ядра 4.11 (изменения затронули 12364 файлов, добавлено 1300537 строк кода, удалено 266937 строк). Около 45% всех представленных в 4.12
изменений связаны с драйверами устройств, примерно 16% изменений имеют
отношение к обновлению кода специфичного для аппаратных архитектур, 13% связано с сетевым стеком, 3% - файловыми системами и 3% c внутренними подсистемами ядра.
Основные (http://kernelnewbies.org/Linux_4.12) новшества (https://lwn.net/Articles/722512/):-
Дисковая подсистема, ввод/вывод и файловые системы
- Для многоуровневой системы очередей (multiqueue) реализованы (https://lwn.net/Articles/720675/) планировщики ввода/вывода BFQ (Budget Fair Queueing) и Kyber, специально рассчитанные на организацию многопоточного доступа к данным на многоядерных системах. Ранее реализация multiqueue считалась незавершённой из-за отсутствия планировщиков, специально созданных для работы с многоуровневыми очередями. BFQ манипулирует распределением между процессами бюджетов на ввода/вывод и позволяет добиться хороших показателей интерактивной отзывчивости при использовании дисковых носителей или медленных SSD-накопителей. Kyber минималистичен (около 1000 строк кода), оптимизирован для работы с быстрыми SSD-накопителями и манипулирует двумя основными очередями - очередь для синхронных запросов (операции чтения) и очередь для асинхронных запросов (операции записи);- В модуль управления пропускной способностью ввода/вывода blk-throttle добавлено новый лимит "low", который можно использовать для задания мягких ограничений. Группа (cgroup) может превысить low-ограничение, но только при условии, что все активные группы уже достигли данного лимита. Через настройки можно корректировать период выборки, используемый контроллером cgroup, для тонкого контроля над нагрузкой на CPU;
- В подсистему LightNVM добавлен обработчик "pblk", который позволяет работать с SSD-накопителями типа open-channel (https://en.wikipedia.org/wiki/Open-channel_SSD) (не имеют прошивки) как с обычными блочными устройствами;
- В MD RAID5 добавлена поддержка возможности Partial Parity Log (https://raw.githubusercontent.com/torvalds/linux/master/Docu... (PPL), которая позволяет снизить вероятность повреждения данных в случае работы с рассинхронизированным массивом, один из накопителей в котором не соответствует данным на других дисках, а массив находится в состоянии "degraded", т.е. отсутствует возможность пересчитать блоки чётности;
- Для Device Mapper реализован новый модуль dm-integrity (https://raw.githubusercontent.com/torvalds/linux/master/Docu... который обеспечивает эмуляцию блочного устройства с дополнительными метками х в секторах, в которых может сохраняться информация для контроля целостности данных;
- Удалён (https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/lin... устаревший драйвер hd для жестких дисков с нестандартным интерфейсом, используемым на заре рождения ПК до появления интерфейса IDE. Драйвер был написан Линусом и поставлялся начиная с версии ядра 0.01;
- Реализована новая ioctl-команда GETFSMAP, которую можно использовать для анализа физического размещения экстентов в файловой системе. Например, при помощи GETFSMAP можно определить данные какого файла связаны с указанным физическим блоком. В настоящее время GETFSMAP поддерживается для XFS и ext4;
-
Виртуализация и безопасность
- В состав включен фреймворк TEE (Trusted Execution Environment), предоставляющий средства для задействования воможностей процессоров, таких как ARM TrustZone (https://www.arm.com/products/security-on-arm/trustzone), для организации выполнения защищённых окружений, аппаратно изолированных даже от ядра. Например, подобные окружения могут применяться (https://www.opennet.me/opennews/art.shtml?num=44718) для изоляции обработчиков ключей шифрования.- В Xen обеспечена возможность применения сетевой файловой системы 9pfs (https://xenbits.xen.org/docs/unstable/misc/9pfs.html), разработанной для Plan 9. При помощи 9pfs в системах виртуализации можно организовать передачу данных из одной виртуальной машины к другой;
- В гипервизор KVM добавлена поддержка механизма виртуализации "VZ", присутствующего на процессорах MIPS. Для архитектуры x86 прекращена поддержка механизма назначения устройств, вместо которого следует применять интерфейс VFIO;
-
Сетевая подсистема
- В системном вызове epoll_wait() обеспечен переход на схему polling-опроса сетевых сокетов при высокой нагрузке для снижения задержек при приёме пакетов;- Прекращена поддержка использования параллельного NFS (pNFS) поверх устройств объектных хранилищ, которая оказалась невостребована и длительное время находится без сопровождения;
-
Память и системные сервисы
- Для инфраструктуры, предоставляющей универсальный API для динамического применения к работающему ядру патчей без перезагрузки и без остановки работы приложений,
добавлена (https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/lin... поддержка гибридной модели (https://www.opennet.me/opennews/art.shtml?num=41651) обеспечения непротиворечивости, комбинирующей метод отслеживания непротиворечивости через анализ стека (kPatch) с механизмом оценки отдельных задач (kGraft). Ранее доступный в ядре код позволял создавать лишь простые патчи для горячего устранения некоторых типов уязвимостей, но не мог применятся для более сложных изменений, затрагивающих замену функций или изменение семантики данных. По сравнению с kPatch гибридная модель позволяет избежать задержек во время наложения патча, может применяться в ситуациях выполнения подменяемой функции и предоставляет более предсказуемый прогноз успешности выполнения операции. По сравнению с kGraft гибридный метод более прост в реализации и оказывает меньшее влияние на процессы (не требует отправки сигнала спящим задачам).
- В системный вызов prctl() добавлены две новые операции: ARCH_SET_CPUID для включения отслеживания инструкций CPUID и ARCH_GET_CPUID для получения текущего состояния отслеживания. Операции поддерживаются только для систем x86 и могут быть полезны для трассировки приложений, которые пытаются перехватить и эмулировать CPUID;- В виртуальной машине BPF реализована возможность вложенного (каскадного) использования map-структур. В состав ядра включен встроенный тестовый фреймворк для программ BPF, активируемый командой BPF_PROG_TEST_RUN в системном вызове bpf(). Обеспечена поддержка JIT-компиляции для архитектуры SPARC64;
- В поставку добавлена утилита "AnalyzeBoot", позволяющая сформировать HTML-отчёт, отражающий хронологию загрузки различных компонентов ядра;
- Значительно переработан код для доступа к данным пространства пользователя из ядра, который избавлен от множества привязок, специфичных для конкретных архитектур;
- Прекращена поддержка архитектуры AVR32, которая уже прекратила своё существование, а в ядре не сопровождалась на должном уровне;
- Добавлен новая опция трассировки "function-fork", которая позволяет ограничить события трассировки только заданны...
URL: https://lkml.org/lkml/2017/7/2/164
Новость: http://www.opennet.me/opennews/art.shtml?num=46799
думаю тут опечатка : медленных SSD-накопителей
Нет, всё верно. BFQ оптимален для медленных SSD и дисков, а Kyber для быстрый SSD.
Чтобы включить BFQ, обосраться надо:https://groups.google.com/forum/#!topic/bfq-iosched/j4QUK4IPOhw
В двух словах к опциям ядра в grub надо добавить:
elevator=bfq
а после загрузки выполнить:
# echo bfq >/sys/block/sda/queue/scheduler
Я не понимаю, почему BFQ через такую *пу включать надо. Он плохо оттестирован? Боятся глюков? Тогда почему он не в staging?
// b.
А, если ещё потом посмотреть, какой планировщик используется в данный момент :))cat /sys/block/sd[a-z]/queue/scheduler
На телепатическом уровне такие вещи пока ещё не могут происходить ))
Если это для Вас сложно, то вы не были знакомы с драйверами к Linux 2.2 :)
> Я не понимаю, почему BFQ через такую *пу включать надо.BFQ I/O scheduler for BLK-MQ.
a) Если в cmd ядра указан элеватор, нафига echo делать?
b) Только тссссссс, я вам по секрету скажу, что deadline, noop и cfq включаются точно так-же.
Был у меня Intel SSD 530 (бюджетный) - так скорость на запись вообще скромная была.
на sata-драйвах вообще о серьёзной скорости говорить не приходится. дешёвый pcie будет быстрее дорогого sata.
Ох,не факт. Intel 600p, например, едва ли лучше саташных. Самый тормозной псие-шник.
что-то по этому треду похоже, что intel производит плохие ssd в любом форм-факторе. :-)
или есть дорогие, которые сравнимы с самсунгами?
Есть, конечно (напр. DC3520 и DC3610). А есть и лучше самсунгов.. (но и ценник соответствующий). Но бюджетные пользовательские линейки у них по скорости довольно печальные.
jesus not impressed. флагманский optane как по мне выглядит блекло по сравнению с 960 pro. да, чёрт, у меня в ноуте, с которого пишу, более быстрый ssd, чем optane. или не на то смотрю?
Смотреть надо на Endurance: 2.3 petabytes written (PBW) для 375-гигового устройства в совокупности с 4 KB random, queue depth 16, mixed 70/30 read/write: up to 500,000 IOPSПлюс пока это, фактически, опытные образцы (это не флэш, а какая-то другая штуковина, какая - интел молчит), которые всё же не страшно продавать.
Ой, точно не на то! Этот самсунг уступает даже Intel DC P3700. А Optane примерно в 10 раз быстрее каждого из них (а в каких-то нагрузках - и в 30-50 раз). Вы просто смотрите не на те цифры. Хотите эксперимент? Воткните ваш самсунг в высоконагруженный SQL, упирающийся в случайные операции к диску, и через несколько часов полюбуйтесь на 100% загрузку диска при, скажем, 10K IOPS. А потом попробуйте спросить себя, а где же обещанные 100K (или сколько там рисуют простые бенчмарки?)Смотреть надо не на моментальную скорость в начале работы, а на установившуюся при длительной работе, и на задержки под нагрузкой. Проблема самсунга и других консьюмерских моделей - под продолжительной нагрузкой начинаются лаги и отдельные операции занимают очень долгое время. А серверные приложения из-за этого сильно просаживаются по скорости. Самая важная характеристика - не пиковая скорость, а чтобы не было падений скорости ниже определенных, и слишком больших задержек на операциях. В обзорах надо смотреть на такие характеристики, как разброс задержек (очень хорошие графики есть в обзорах anandtech, например), еще есть т.н. "Total Service Time" - есть некая нагрузка, она выполняется, с замером времени каждой операции, потом все эти времена суммируются на разных стадиях (https://img.purch.com/r/600x450/aHR0cDovL21lZGlhLmJlc3RvZm1p...
Если интересно, почему важно именно это - например, тут хорошие объяснения: http://www.tomsitpro.com/articles/enterprise-ssd-testing,2-8... (особенно "Latency Measurement" и "The QoS Domino Effect")
По поводу Optane. Во-первых, можно посмотреть кадры интеловской презентации с комментариями: https://www.servethehome.com/intel-optane-ssd-dc-p4800x-3d-x.../
особенно слайды с упоминанием "Quality of service", "Predictably Fast Service" и тд. В той статье tom's hardware написано, почему скорость реального серверного приложения зависит именно от этих параметров.По реальным замерам Optane, см. цифры с 99.999 задержками, они в 10-20 раз лучше, чем даже у PЗ700: http://www.anandtech.com/show/11209/intel-optane-ssd-dc-p480...
или вот эти графики (логарифмическая шкала!): http://www.anandtech.com/show/11209/intel-optane-ssd-dc-p480...
а вот здесь мы подходим к мысли, что для разных систем профиль использования диска может быть разный. для десктопа и для бд-сервера могут быть важны разные вещи. нигде же по треду выше не писали, что мы говорим только про высоконагруженные серверы, например?
Для десктопа разницы особой нет. Но дело в том, что это вообще не показатель: вот можно взять какую-нибудь TLC'шную какашку, которая выдает 100 МБ/с на линейную запись, но несколько гигов может записать со скоростью 500 МБ/с за счет SLC-буфера. Всегда можно сказать, что вон быстро же, а долго писать - да кому это на десктопе надо? И в этом будет доля истины. Но если реально сравнивать по скорости, то сравнивать все-таки под серьезной нагрузкой, где эта скорость, собственно, и нужна. А то потом возникнет потребность и воткнут под БД какой-нибудь абстрактный SSD из серии "500 мб/с запись, 550 мб/с чтение, все пучком" и возникнет ээ непонимание, почему все стало так плохо.
У меня почему-то другой опыт.Древние Intel SSDSA2M040G2GC(X18-M/X25-M/X25-V G2 SSDs) быстрее новых Samsung SSD 850 EVO 250GB
То есть SATA (поэтому и вместе с винтами). Быстрые - NVMe.Там кроме самой скорости интерфейса ещё и наборы команд очень отличаются.Кстати, кто в курсе - планировщик общий или к разным устройствам можно разные прицепить?
не обязательно SATA, но обычно если медленный то это SATA диск.SATA может быть довольно быстрым, единственное длина очереди 32.
Длина очереди не связана с интерфейсом/шиной, а зависит от NCQ/TCQ возможностей контроллера на стороне устройства.
http://www.computerweekly.com/feature/Storage-101-Queue-dept...
"SAS and SATA can handle queue depths of 254 and 32, respectively"https://en.wikipedia.org/wiki/Native_Command_Queuing
"Both NCQ and TCQ have a maximum queue length of 32 outstanding commands[1][2] (31 in practice)."
Во-первых, sata/scsi-диски и -шины бывают не только физическими, во-вторых, по scsi можно презентовать не только одиночный диск.
SATA length 32 на NCQ - это лишь factory standart, который не обязателен и не зависит от мнения интернет-газетёнки.
Ути-пусечка :) Просто возьми и приведи вендора и модель где это не так. И всех то делов! Но не приведёшь ...
Можно через udev настроить настроить разные планировщики
https://wiki.archlinux.org/index.php/Improving_performance#U...
Зачем так сложно?
Как проще?
Наверное, как-то так:))w /sys/block/sdb/queue/scheduler - - - - kyber
w /sys/block/sda/queue/scheduler - - - - bfq
По-моему, это ни хрена не проще. Предложенное выше означает, что планировщики настраиваются не по буковкам, а по свойствам накопителя. А в этом варианте - если буковки поменялись - правь конфиг. Особенно если вспомнить, что есть такая штука, как usb-флешки.
>Предложенное выше означает, что планировщики настраиваются не по буковкам, а по свойствам накопителя.Да, действительно. Без конфигов в любом случае не деться никуда :)
# установка планировщика cfq для HDD
ACTION=="add|change", KERNEL=="sd[a-z]", ATTR{queue/rotational}=="1", ATTR{queue/scheduler}="bfq"
Разница в том, что это правило (и аналог для nvramX) пишется один раз и работает потом, как бы буквы дисков ни скакали и сколько бы их не добавляли. А в вышеупомянутом - в строках содержатся конкретные sda, sdb и так далее.
Кроме того, это какая-то местечковая штуковина systemd, которого у меня нет и быть не может.
Не может быть! ))
Я сишник, и я видел его кишки :-) Воняют - как настоящие.
Из свинных кишок тоже, вроде, неплохая колбаса получается, хотя сам процесс мало кого возбуждает.
Вот и тут - если б почистить хорошо, был бы другой разговор. Но лично меня процесс чистки совершенно не возбуждает, так что воздержусь.
неплохая колбаса получается из хорошего мяса, всё остальное маркетинг.
На самом деле я протупил чуть - можно и в sysctl.conf вписать, но через udev - правильнее.
Можно разные. С помощью udev, например.
Только сначала неплохо ещё убедиться, что ядром по умолчанию blk-mq используется...
Само собой. Ядро самосборное в любом случае.
Вот вам пример того, как NVME едва-едва быстрее SATA.
https://3dnews.ru/941477Вообще, смысла в PCI-E SSD для домашнего юзера почти нет, если это не топовые накопители типа Samsung 960 Pro за овердофига денег. Ведь на обычном десктопе подавляющее большинство операций чтерия/записи - мелкоблочные. Открываем тесты SSD и видим - последовательное чтение 1 ГБ/с соседствует с мелкоблочным чтением/записью в районе от 40 до 150 МБ/с. То есть, подавляющее большинство операций и близко не уирается в SATA.
И еще вопрос, а что вообще домашний юзер будет читать с 256-512 гигового диска со скоростью 1-2 гигабайта в секунду, и стоит ли переплачивать за это бешеные деньги?
> Вот вам пример того, как NVME едва-едва быстрее SATA.
> https://3dnews.ru/941477Перевести написанное там? "Вендузятники должны страдать!".
разница между 2гб на чтение и пол-гига на чтение на глаз в десктопной системе есть. менее критичная, чем смена hdd на ssd, но различимая. стоит ли оно того -- каждый решает сам.
разве что при копировании.
в остальном - никакой разницы, тк у цп быстродействие не бесконечно, он эти гб/с еще прожевать должен.
уж прожуёт, будьте спокойны. можете попробовать просто перезагрузиться и запустить firefox и сравнить медленный и быстрый ssd. разница будет. да, не такая критичная, как если сравнивать hdd и не самый быстрый ssd, но будет.
кстати, можете ещё замерить скорость доступа к ram и удивиться, что цп это может прожевать.
Кстати, а с М.2 SSD в линуксе есть проблемы? Или нормально всё работает?
>Кстати, а с М.2 SSD в линуксе есть проблемы? Или нормально всё работает?Нормально. У меня гнусмас 950-й на 512 от такой http://www.samsung.com/ru/memory-storage/950-pro-nvme-m-2-ss...
работает в bcache для 10 терабайтного зеркала.Никаких нареканий, только греется как чёрт.
>>Кстати, а с М.2 SSD в линуксе есть проблемы? Или нормально всё работает?
> Нормально. У меня гнусмас 950-й на 512 от такой http://www.samsung.com/ru/memory-storage/950-pro-nvme-m-2-ss...
> работает в bcache для 10 терабайтного зеркала.
> Никаких нареканий, только греется как чёрт.Да, забыл сказать, скорость чтения с него два с половиной гигабайта в секунду.
А вот на запись там хитрый алгоритм. Где-то видел обзорчик, но уже не вспомню где. Хотя на запись скоростя в разы больше топовых SATA SSD/
>>>Кстати, а с М.2 SSD в линуксе есть проблемы? Или нормально всё работает?
>> Нормально. У меня гнусмас 950-й на 512 от такой http://www.samsung.com/ru/memory-storage/950-pro-nvme-m-2-ss...
>> работает в bcache для 10 терабайтного зеркала.
>> Никаких нареканий, только греется как чёрт.
> Да, забыл сказать, скорость чтения с него два с половиной гигабайта в
> секунду.
> А вот на запись там хитрый алгоритм. Где-то видел обзорчик, но уже
> не вспомню где. Хотя на запись скоростя в разы больше топовых
> SATA SSD/Да, ещё забыл сказать, грузиться с него у меня так и не получилось (
Поэтому отдал его в bcache.
Я бы просто загрузчик и /boot на винт положил.
> Я бы просто загрузчик и /boot на винт положил.Мне интереснее было бы напрямки, потому что там ещё пара ссд Deneva 2 имеется. Вот которые я под бекашу и планировал изначально.
ЗЫ
Минусателем привет, завидуйте.
На 4.9 M.2 SSD от интела запкскал, загрузку в том числе с него.
> Да, ещё забыл сказать, грузиться с него у меня так и не
> получилось (Если мать на 6-м/7-м интеловском чипсете, можно попытаться вшить в UEFI драйвер для PCI-E SSD.
Вообще, конечно, обладателям 6 и 7 серий не позавидуешь. Там ранние версии UEFI, в более поздних, например, поменялось API, посредством которого видеокарты общаются с UEFI. В результате, нвидиевские карточки 10xx серии не работают с такими материнками, ибо нвидия забила на совместимость с древними UEFI.
кэш на запись используешь или чтение?
> кэш на запись используешь или чтение?Чтоб что-то прочитать, это кто-то должен записать. Ваш KO
Нет там проблем. Поддержка в ядре появилась даже ещё до того, как устройства появились на рынке.
> думаю тут опечатка : медленных SSD-накопителейЯ пользуюсь SSD уже десяток лет. Уверяю тебя, это не опечатка ;)
>> думаю тут опечатка : медленных SSD-накопителей
> Я пользуюсь SSD уже десяток лет. Уверяю тебя, это не опечатка ;)Пястишь, в 2007 не было SSD
>Обеспечена корректная поддержка подключения устройств через 24-контактный разъём USB type-CКакая положительная новость. Так чрез пару корректирующих релизов заживём!
"очередь для синхронных запросов (операции чтения) и очередь для асинхронных запросов (операции записи)"Ошибка перевода?
Асинхронно можно выполнять чтение, но не запись, как я понимаю
> Асинхронно можно выполнять чтение, но не запись, как я понимаюНет, всё верно. Операции чтения выполняются всегда сразу (блокируют процесс), а запись может быть отложена.
"A process issuing a read request is typically unable to proceed until that request completes and the data is available, so such requests are seen as synchronous. A write operation, instead, can complete at some later time; the initiating process doesn't usually care when that write actually happens. So it is common to prioritize reads over writes, but not to the point that writes are starved."
> Асинхронно можно выполнять чтение, но не запись, как я понимаюТ.е. ядро вашему пользовательскому процессу может сказать — Ну, ОК, я всё прочитал, но пока ты можешь забрать только первую треть, а за остальными зайдёшь позже?
>> Асинхронно можно выполнять чтение, но не запись, как я понимаю
> Т.е. ядро вашему пользовательскому процессу может сказать — Ну, ОК, я всё
> прочитал, но пока ты можешь забрать только первую треть, а за
> остальными зайдёшь позже?Нет. Оно может сказать: "Я запомнило всё, что ты мне сказал, но пока записало только треть." Или вообще ничего не говорить (пока всё не запишет).
Оно может сказать - я тут не записало - но данные держи, я их потом скину через Flush Buffers на диск - а ты не парься.
не-не! :)
Ты говорил про асинхронное чтение. Цитата:
> Асинхронно можно выполнять чтение.А вот про запись оно говорит следующее — считай что записало, работай дальше, это уже не твоя проблема.
А сколько реально сбросило скажу только админу.
> А вот про запись оно говорит следующее - считай что записало, работай
> дальше, это уже не твоя проблема.
> А сколько реально сбросило скажу только админу.Вот только это -- синхронная операция.
Другими словами: когда курьер приходит в какую-то организацию получить какие-то документы, ему приходится ждать, пока их все ему не отдадут, а когда приносит, то может просто оставить их на ресепшене и идти дальше по свим делам, особо не парясь как долго потом с ними будут возиться.
В 4.12 закомитили патч Андрея для NVME Power Management
Чозаандрей? Чозапатч?
http://www.phoronix.com/scan.php?page=news_item&px=NVMe-Powe...
Догадываюсь, что речь об этом.
http://lkml.iu.edu/hypermail/linux/kernel/1608.3/02787.html
> В 4.12 закомитили патч Андрея для NVME Power ManagementПочему не Шигорина? Он чего, не слал?
Вот собрал я это ведро, но так и не понял, почему не могу по дефолту в менюконфиге поставить планировщик отличный от deadline/noops
Значит модулями собрал. Указывай через sysfs какой использовать. Noops встроенный, поэтому он единственный и остаётся по умолчанию.
> Значит модулями собрал. Указывай через sysfs какой использовать. Noops встроенный, поэтому
> он единственный и остаётся по умолчанию.ну да, ты такой продвинутый расскажи, почему dead торчать по дефолту готов, а остальных просто в менюхе нет.
>> Значит модулями собрал. Указывай через sysfs какой использовать. Noops встроенный, поэтому
>> он единственный и остаётся по умолчанию.
> ну да, ты такой продвинутый расскажи, почему dead торчать по дефолту готов,
> а остальных просто в менюхе нет.Дэда теперь целых два: один мульткю, а другой нет. Когда ядро в режиме blk-mq, видно mq-deadline, а когда нет, то просто deadline :)
>>> Значит модулями собрал. Указывай через sysfs какой использовать. Noops встроенный, поэтому
>>> он единственный и остаётся по умолчанию.
>> ну да, ты такой продвинутый расскажи, почему dead торчать по дефолту готов,
>> а остальных просто в менюхе нет.
> Дэда теперь целых два: один мульткю, а другой нет. Когда ядро в
> режиме blk-mq, видно mq-deadline, а когда нет, то просто deadline :)надеюсь не подорвусь наступив на де6ила и повторно задаю вопрос
почему кроме дедлайна и ноопс других планировщиков в менюхе нет в опции по дефолту.
Наверное, я де Билл, но всё же попытаюсь окончательно прояснить... или запутать ...тех, кто, вроде бы как и сам, невзирая на препятствия, должен уже был всё найти:параметр ядра CONFIG_DEFAULT_IOSCHED остался ещё со времён, когда не было blk-mq, а в blk-mq выбор планировщика по умолчанию не предусмотрен ))
> ну да, ты такой продвинутый расскажи, почему dead торчать по дефолту готов,
> а остальных просто в менюхе нет.Тут не имеет значения, какой установлен в ядре по умолчанию. Важно, какой собираешься использовать ;)
Noop - это только в каком-то специфичном дистре.
GRUB_CMDLINE_LINUX="scsi_mod.use_blk_mq=1 dm_mod.use_blk_mq=1"А в конфиге должно по-крайней мере ещё быть:
CONFIG_BLK_WBT_MQ=y
Фича абсолютно свежая, и, наверное, ещё не откатана до такой степени, чтобы быть по умолчанию.
Ответил выше в ветке.// b.
https://mahmoudhatem.wordpress.com/2016/02/08/oracle-uek-4-w.../
Кто-нибудь уже пробовал SCHRED_DEADLIТТУ, Как вам? При своппинге не тормозит?
> Кто-нибудь уже пробовал SCHRED_DEADLIТТУ, Как вам? При своппинге не тормозит?Не тормозит. Оно просто подменяет твой IDE HDD на виртуальный SSD последней модели и не тормозит.
Жалко, что до CitrixXENserver это ядро ещё долго не доберётся...
12309 уже исправили? :]
> 12309 уже исправили? :]Давно уже. Объявили фичей и закрыли.
начиная с NT 4.0 нормально все.
> Например, при помощи GETFSMAP можно определить данные какого файла связаны с указанным физическим блоком.А если там пусто? А самое интересное: если там метаданные, можно узнать, какие или от какого файла?
я не понял - мне теперь для своего ssd менять noop на kyber или как?
Бенчмарки в помощь. Но чего-то подозреваю, что если не серверные нагрузки то менять разве что из любви к искусству.
Ну, да. Куда ж без неё? :)
Кхх, ну да, ну да. Сам примерно из этих же соображений играюсь. Хобби, как оно есть.
На форониксе есть тесты, исчите.
Для тех кому лень искать: особого смысла меня планировщик (пока?) нет.
Kyber выглядит интересно и адекватно. Сам думал, что для ссд нужен какой-то такой алгоритм, разделяющий логику чтения и записи. По описанию всё выглядит очень неплохо
Надо будет глянуть, есть ли у него крутилки на тему "как долго откладывать запись". В принципе это может здорово продлить жизнь SSD, особенно тем, у которых своего кэша толком нет.
Сасунг 840 Pro проработал под виндой без плясок с переводом кеша броузеров в память и тому подобного уже пять лет. Состояние "Good". Видимо, может проработать ещё столько же. Но только нафиг он уже нужен? Тебе подарить? Вру, выкину в мусорный бачок и дам здесь gps координаты.
Потому что могу. Памяти большую часть времени хватает с избытком, а в меньшую - в отличие от "перевода кэша браузера в память" здесь шедулер сам разберётся, когда сколько кэшировать. Кэш чтения не так актуален, как для винта (собственно, вообще не актуален) - можно для записи поюзать. То есть профит можкт и быть, а вот проблем - и близко не предвидится.
Я сегодня после этой статьи mq-deadline на kyber поменял. Ничего так. На пользовательской машине никаких ощутимых отличий не видно. Разве что, скорость записи в Gnome-Disks benchmark на 10 MB/s больше по сравнению с предыдущей проверкой стала. И похожий показатель, не помню, с каким планировщиком, на этом диске тоже уже был когда-то :)
> Разве что, скорость записи в Gnome-Disks benchmark на 10 MB/s больше по сравнению с предыдущей проверкой сталаНу давай, не юли, полный бенч в студию!
Зачем? Я просто провёл для себя небольшой тест на проверку пригодности и работоспособности, но не настолько тщательно к этому подходил, чтобы мои результаты могли оказаться чем-то кому-то полезными.
> Представлена поддержка плат Orange Pi PC2 ...до этого колебался, заказывать ли
Эх, значит мой патч войдет уже в 4.13 :)
https://git.kernel.org/pub/scm/linux/kernel/git/next/linux-n...
Первонах? Или уже не первый?
А каким софтом вы пользуетесь для просмотра TV на компе? Желательно б GTKшный.
> А каким софтом вы пользуетесь для просмотра TV на компе? Желательно б GTKшный.mplayer
А где 30-меточный MPLS?
> Удалён устаревший драйвер hd для жестких дисков с нестандартным интерфейсом, используемым на заре рождения ПК до появления интерфейса IDE.Так бы и сказали, что речь про диски MFM, RLL. А то напустили какого-то тумана про нестандартный интерфейс. До появления IDE они были вполне себе стандартные. ЕМНИП SCSI, вроде тоже раньше, чем IDE появился.
+1. Назвать MFM *нестандартным* -- это должен быть жёсткий перепой.
> Добавлена поддержка PCI-контроллеров, которые могут работать в режиме Endpoint;А в каком они еще режиме могут работать? Или это имеются в виду контроллеры на материнской плате, или же в SOC, которые могут работать в том числе в режиме Endpoint?
>> Добавлена поддержка PCI-контроллеров, которые могут работать в режиме Endpoint;
> А в каком они еще режиме могут работать?Тебе не нужен ответ на этот вопрос, лежащий проямо по ссылке
.../torvalds/linux/master/Documentation/PCI/endpoint/pci-endpoint.txt
со слова [[Endpoint]] в процитированном тобою.> виду контроллеры на материнской плате, или же в SOC, которые могут
> работать в том числе в режиме Endpoint?
USB Type C давно умеет SFP и езернет
> RAID5Почему RAID-5 мастдай:
https://geektimes.ru/post/78311/Ответ: потому что на время ребилда вы получаете RAID-0 со всеми вытекающими рисками.
>> RAID5
> Почему RAID-5 мастдай:
> https://geektimes.ru/post/78311/
> Ответ: потому что на время ребилда вы получаете RAID-0 со всеми вытекающими
> рисками.RAID-Z лучший?
xtcyjt слово, лучше бы невежество мастдайнуло уже у её распространителей:
> LVM will resync the raid by copying cover the out-of-date segments instead of the entire logical volume.
>...
> 2.3.3. RAID Logical Volumes
> LVM supports RAID0/1/4/5/6/10. An LVM RAID volume has the following characteristics:
> RAID logical volumes created and managed by means of LVM leverage the MD kernel drivers.https://access.redhat.com/documentation/en-US/Red_Hat_Enterp...
Только out-of-date segments ресинкаются. вернее даже более — lvm'у нужен device-mapper, device-mapper'у в свою очередь — md-raid:
# modinfo dm-raid
filename: /lib/modules/.../kernel/drivers/md/dm-raid.ko
...
depends: raid456
# modinfo raid456
filename: /lib/modules/.../kernel/drivers/md/raid456.ko
...
depends: async_raid6_recov,async_pq,libcrc32c,raid6_pq,async_tx,async_memcpy,async_xor
зыж
ссылочка к тому же — 15 декабря 2009
свежачёк.
А еще Деда Мороза не существует.
>> RAID5
> Почему RAID-5 мастдай:
> https://geektimes.ru/post/78311/
> Ответ: потому что на время ребилда вы получаете RAID-0 со всеми вытекающими
> рисками.используй raid-6
надёжность важнее, у нас вообще в продуктиве зеркало на три массива, разнесённые географически. на 20 терабайт каждый люн.
>> размер патча - 89 Мб
>> добавлено 1300537 строк кода, удалено 266937 строкЖдем когда размер распакованного моноядра перевалит за 4 Гб и поддержка 32 битных систем отомрет естесственным образом :)
> Ждем когда размер распакованного моноядра перевалит за 4 Гб и поддержка 32
> битных систем отомрет естесственным образом :)Был бы юмористом, если б не был https://en.wikipedia.org/wiki/Large_file_support невежей.
По OSS комментариев никаких?
Мат-фильтр все вырезал. Потому да, никаких.
я уж было начал искать, как включить MQ BFQ (https://groups.google.com/forum/#!topic/bfq-iosched/j4QUK4IP... но потом глянул тесты (https://www.phoronix.com/scan.php?page=article&item=linux412... и перехотел.
На IOZone поглядите внимательнее. Там что-то странное в принципе - HDD быстрее SSD. Что, с моей точки зрения, ставит и остальные тесты под вопрос. Плюс в комментах есть сомнения насчёт того, что дефолтные параметры BFQ неплохо бы подкрутить... В общем и в целом - ждём ещё тестов.
Хороший HDD дает скорость вряд ли лучше, но более-менее сравнимую с SSD. А если сравнить цену за терабайт, то необходимость флешек-переростков становиться совсем неочевидной.:) По крайней мере, на десктопах. На ноутах соглашусь, что там вес роляет, да и малоразмерные SSD здорово подешевели.
Мда, посмотрел повнимательнее - всё весело. Там у него какой-то свершенно рекордно кривой SSD, который, собственно, на ряде нагрузок МЕДЛЕННЕЕ, чем сравниваемый с ним WD Green (тоже не чемпион скорости ни разу).Вот цифирки для WD: http://hdd.userbenchmark.com/SpeedTest/1216/WDC-WD10EZRX-00A...
А вот для SSD: http://ssd.userbenchmark.com/Adata-Ultimate-SU800-128GB/Rati...
Насчёт того, что "Хороший HDD дает скорость вряд ли лучше, но более-менее сравнимую с SSD" - даже этот уродец во всех остальных тестах винт таки обошёл в разы. Взять какой-нибудь нормальный - и в IOZone обойдёт. Потому что разница между AData и нормальными выглядит вот так: http://www.tomshardware.co.uk/adata-ultimate-su800-ssd-revie...
> Хороший HDD дает скорость вряд ли лучше, но более-менее сравнимую с SSD.А что насчет времени отклика? Разница уже не на три порядка, а только на два? :)
> На ноутах соглашусь, что там вес роляетНе сказал бы, что 1.8 хард сильно тяжелее (в смысле заметности веса, вот 2.5 уже и по весу и по размеру более солиден). Но вот сильно и заметнo тормознее - это да.
А еще, жесткие диски не любят вибрацию и вообще, резкие движения, что для мобильного компютера не слишком удачные требования. Ну и цены на диски размером 1.8 всегда были конскими.
Сравнительные обзоры на основе бенчмарков делаются скорее для того, чтобы пробудить интерес к чему-то или каким-то реальным действиям, а не для вынесения окончательных выводов или вердиктов :)
Сколько же всего вкусного и нужного в одной новости!
То есть MFM/RLL накопители больше не подключить?
Это не приговор
А у тебя до сих пор в продакшене? :)
> А у тебя до сих пор в продакшене? :)Нет, что вы! Надо ещё подождать -- стабильности технологии.
> Обеспечена корректная поддержка подключения устройств через 24-контактный разъём USB type-C, разработанный параллельно со спецификацией USB 3.1Еще в 2015 году Apple выпустила MacBook с type-c портом. А тут вон только что...
>Еще в 2015 году Apple выпустила MacBook с type-c портом. А тут вон только что...Да, ты всё верно понял: он и даром никому не нужен.
Почему же? За вменяемые деньги, а тем более даром, и как широко распространённый стандарт - нужен. А в исполнении одного вендора с "different" решениями и конской стоимостью - нет.
У него ровно один плюс.
НО КАКОЙ!!!
Они избавились от проклятия USB и теперь пофиг какой стороной пихать штекер!
:)
Никак не дождусь ядра, что позволит получить полностью рабочую сборку для планшетного ПК (Bay Trail). Когда уже запилят нормальную поддержку звука и сенсоров?
> Никак не дождусь ядра, что позволит получить полностью рабочую сборку для планшетного
> ПК (Bay Trail). Когда уже запилят нормальную поддержку звука и сенсоров?Так в 4.13 выкатывают кучу кодеков же.
Начиная с 4.10 отвалилась клава вместе с USB портами, страшно подумать, что с этой версией откажет, или для нового ядра нужно покупать новый ноут?)
> Начиная с 4.10 отвалилась клава вместе с USB портами, страшно подумать, что
> с этой версией откажет, или для нового ядра нужно покупать новый
> ноут?)Почини, это же open source!