Компания NVIDIA опубликовала выпуск новой ветки проприетарного драйвера NVIDIA 470.42.01, которая пока находится на стадии бета-тестирования. Драйвер доступен для Linux (ARM, x86_64), FreeBSD (x86_64) и Solaris (x86_64)...Подробнее: https://www.opennet.me/opennews/art.shtml?num=55372
Давно пора. Чё там по вейланду, можно без xwayland запускать браузеры?
Лиса и хромиум уже сто лет умеют, мелкие браузеры на webkit и webengine тоже. Всякое легаси вроде palemoon, понятное дело, нативно уже никогда не научится, скорее помрет.
export GDK_BACKEND=wayland ?
> export GDK_BACKEND=wayland ?MOZ_ENABLE_WAYLAND=1, твоя переменная может отломать половину GTK-программ.
Тааа и наплевать на них
Потому что они не работают без иксов.
Интереснее, скоро ли научится нативный Wayland ускорять. Как там с этим?
Эмм. Что значит ускорять нативный wayland?
Wayland-композитор (weston, mutter и тп) использует EGL, который nvidia предоставляет и это работает аппаратно уже далеко не первый год. Сами клиенты, работающие по протоколу wayland, тоже используют EGL, если им нужно, который работает аппаратно.
Это и хотел услышать. Просто в этом не разбираюсь, помню когда-то в прошлом писали о каких-то проблемах в поддержке Wayland из-за конфликта в выбранных стандартах, но может это именно xwayland касалось.
> GPU System Processor (GSP)Что это? Где почитать?
Аббревиатура в аббревиатуре. По идеи должно быть GPUSP
В таком виде гугел тоже только мусор находит.
А что torch показывает?
Группа инфекций, которая представляет серьезную опасность для беременных.
Внезапно, по ссылке в оригинале новости.
Только поправили, похоже.
Но там не 2 копейки больше. "GSP присутствует в некоторых GPU (каких?). В нескольких избранных продуктах включен по умолчанию (в каких?), в дальнейших релизах дроайверов будет включен еще в других. Позволяет частично сгрузить часть задач инициализации и управления (каких конкретно?) с CPU. Что может поднять производительность (а может и не поднять? может понизить? в каких ситуациях наблюдается какой прирост?) благодаря снижению задержек при доступе к внутренностям GPU (каким?)." Звучит как будто параграф писали маркетологи, описывая сырую неоттещеную фичу.
‘Hardware-Accelerated GPU Scheduling’, the feature allows your graphics card to manage its own video memory (VRAM) instead of the operating system.
возможно там про это
Звучит как банкстер и корпораст не хочет чтоб хомяк был в курсе внутреностей железки, еще сильнее не хочет чтобы понимал как это работает. Все просто.
Поддержку каких моделей дропнули? Или это в следующей ветке будет?
В следующих — 600-700 полетят.
Вовремя я GeForce 1030 заказал
> Вовремя я GeForce 1030 заказалРасскажи лучше про раст.
Хорошо, что я перестал в своё время покупать этот мусор, а то сейчас на полке красовалась на одна старенькая GT220, а целый парк бесполезный карточек. На mesa конечно работает, но производительность совсем печальная.
Мусор? Я купил себе 7 лет назад карту и она до сих пор поддерживается. И будет поддерживаться когда дропнут следующее старьё. Угадай, сколько лет я хочу поменять карту? Лет 5 так точно. Но эта работает и для моих задач её практически хватает. Более старой (те, которые дропнут), уже не хватало бы совсем. А производительность там совсем печальная и без mesa (хотя на карточках, где есть управление частотой, производительность ничем не хуже, просто по сегодняшним меркам она никуда не годится).
Я сильно рад за тебя дорогой Анон, но ты не переживай - рано или поздно твою видяху тоже дропнут и ты так же поставишь её на полочку и таки купишь себе новую, даже если она тебе нафиг не сдалась и тебя всё устраивает.
Тут вопрос в том, что вендор из за опухоли мозга не считает нужным делать свободный драйвер, ну или хотя бы тупо сорцы открыть - как только им надоедает компилить драйвер под новую версию иксов, видяха превращается в тыкву и это факт. Так что да - это мусорная политика, как и её производная.
Я лучше рублём AMD поддержу, раз там люди адекватней работают.
Я конечно понимаю, что ты жиром течёшь, но всё же. Напомнить про fglrx? Чё там, давно его закопали? А, что? Тем временем у меня всё это как не было так и нет проблем с nvidia. Ты можешь поддерживать всё, что хочешь, только не ной потом.Кстати, легаси драйвер они обновляют, даже поддержку спектры добавили. Выкидывают совсем на мороз только 20 летние карты, кто в своём уме будет держать такие? Нормальная политика, проблема только у тех производителей, у кого нормального драйвера нет.
fglrx закопали потому, что он достался AMD с покупкой ATI. Хватит чушь нести - у AMD есть нормальный драйвер, у NVIDIA нет.
> досталсяКого это волнует? Железо амд, железо амд. Fglrx хоть как-то работал и даже с вычислениями, когда его принялись закапывать все карточки на 10 лет лишились драйвера (а я напоминаю что +- юзабельный драйвер у амд появился только пару лет назад).
> нести - у AMD есть нормальный драйвер
Это не тот который по 3 года не поддерживает новые карты и постоянно баги ловит в софте? Шейдеры в юнитишлаке уже заработали или всё так же? Насколько я знаю, в системных требованиях игрушек до сих пор "опенсорсные драйвера не поддерживаются".
>у NVIDIA нет
В мире фантазий может быть, в реальном же мире у нвидиа прекрасный драйвер уже лет 16. И с cuda проблем нет, и с opencl (мой привет амд опять), и с поддержкой оных в софте.
Ну раз вы настаиваете...> Насколько я знаю, в системных требованиях игрушек до сих пор "опенсорсные драйвера не поддерживаются".
Я прям так и вижу надпись в системных требованиях "опенсорсные драйвера", не ну вы серьёзно?
> Шейдеры в юнитишлаке уже заработали или всё так же?
Ну что юнити шлак спорить не буду, а какое отношение их говнокод имеет к данному спору?
> Кого это волнует? Железо амд, железо амд.
Таблеточки меcье, таблеточки ;)
А если без стёба, то странно от буржуев требовать чтобы они поддерживали говно к которому отношения вообще не имеют. Переделали по уму и ладно.
Т.е. аргументов никаких вы не увидим? Жира сегодня уже недостаточно для ведения дискуссии. У браузеров, например, так и написано: поддерживается только mesa. При попытке запуска на nvidia они пытаются загрузить nouveau, кторого нет и быть не может. Только вот всё что касается приличного ПО и игрушек, тут только проприетарщина, и если разрабы очень заморочились с поддержкой, может быть, и меса (потому что ей нужны свои костыли), но без гарантий.
Драйвер лишь предоставляет для программ стандартные интерфейсы. У вас там уже браузеры драйвера пытаются куда-то загрузить, какие тут могут быть аргументы? Вы бы хоть научились мысли излагать на человеческом языке.
P.S. Прекратите уже нарушать предписания вашего лечащего врача.
Драйвер -- не интерфейсы, драйвер в значительной мере среда исполнения программы и трансляции её в инструкции понятные железу. Каждая программа подстраивается не только под железо, но и под возможности и особенности реализации драйвера.Гтк завязан на gbm, который только в mesa, следовательно, на проприетарном драйвере полноценно работать никогда не будет (и даже не пытается), до тех пор, пока блоб не завяжут на mesa. То что приложения не использую generic интерфейс, а завязаны на mesa, это проблема приложений -- у кутей таких недостатков не наблюдается.
Говори уж сразу, что, мол, пользователи nvidia, у которых всё работает, завидуют пользователям amd, у которых есть вейланд.
> Драйвер -- не интерфейсыА где вы увидели утверждение обратного? cuda, opencl, valkan - это всё интерфейсы, реализацию которых и предоставляет драйвер и речь шла только об этом. Вы сами выдумали тезис, который и оспорили.
> завидуют пользователям amd, у которых есть вейланд.
Вы сами это сказали. Я только не понимаю, почему вы так яро защищаете позицию проприерастов и противитесь свободному ПО.
Тебя на бред потянуло. Открытый драйвер работал стабильнее и быстрее родного, а кому надо вырвут из проприетарного кусок и получат OpenCL, вот только он мало кому сдался. Драйвер radeon развивается уже давно и карточки, которым 10 лет и более прекрасно работали и 5 лет назад и даже ранее. Драйвер AMD писался долго, но и на шинде дела были не лучше. Примерно за год его привели в более-менее нормальный вид. А вот надежд на нормальную работу скоро не останется даже у топовых видях от нвидии. Да и то лишь недавно им разрешили делать проброс в виртуалку. Просто офигеть как дружно кончили владельцы карт спустя каких-то лет 8.
Ну нет, это какая-то альтернативная история уже. Все они паршиво работали, но проприетарный хотя бы пытался обеспечивать полноценную совместимость софту. Можно посмотреть на сегодняшний intel, который вроде как работает, но не совсем. Или лучше на nouveau, который ещё ближе. Не надо тут про radeon, radeonsi тоже не вчера написали, а пользоваться им можно только 2 года как (и, по слухам, проблемы с графическим софтом и вычислениями остались, в том числе с вулканом, который тот стремится поддерживать лучше чем он работает с opengl и opencl). Много-много лет страданий, да.>проброс в виртуалку
Как же он до того работал? Насколько я знаю, речь о пробросе в виртуалку в виртуалке, что хотят продавать отдельно.
>Да и то лишь недавно им разрешили делать проброс в виртуалку.А как можно было IOMMU запрещать? Невидия сделала свой протокол передачи по PCI-E?
> Насколько я знаю, в системных требованиях игрушек до сих пор "опенсорсные драйвера не поддерживаются".Ну сейчас уже в принципе более-менее.
Но вот все 2010-ые линуксового гейминга чуть ли не прошли под флагом Nvidia-only.
Ну у меня, допустим, gts 450, но я на нее не могу в линуксе поставить драйвер выше чем 390. А он уже много чего не поддерживает и даже в стимовские игры невозможно играть.
Почему невозможно? Он только вулкана не имеет и протон работать не будет наверно. Игры без вулкана никуда не делись, я только на той неделе сознательно ставил себе 390 потому что мне надоели проблемы с вулканом и хотелось сравнить производительность драйвера без libglvnd. Выяснилось, что разницы нет, только вулкан не работает. А приложения имеют проблемы не из-за libglvnd.
> рано или поздно твою видяху тоже дропнут и ты так же поставишь её на полочку и таки купишь себе новую, даже если она тебе нафиг не сдалась и тебя всё устраивает.У меня такого пока ни разу не было.
9600 — сгорела
450 — слил при переходе на FullHD монитор с квадратного раритета.
560 — слил, когда увидел, что новые умеют без нагрузки выключать вентилятор.
Сейчас 960 из 2015 года. Ждать и ждать ещё пока бросят… А уже охота новую бюджетную видеокарту с поддержкой AV1.Так бы за AMD сейчас пошёл бы. Но у AMD её 6500 непонятно где. Да и Nvidia уже активно прёт в Wayland.
Так что уже выбор уже опять неоднозначный.
На сколько я помню, 6500 это какраз первые карточки, которые появились после покупки ATI, а новый драйвер появился только начиная с 6800. Видяшки ты кстати очень вовремя слил.
P.S. забавно, но у меня 9600 тоже сгорела...
Думаю он про новые карты с префиксом RX, потому что старые прекрасно работают. Этот падаван слишком юн чтобы знать о карточках с префиксом HD и такими же цифрами.
Сам ты поддаван.Если слова «сейчас пошёл бы брать», то явно уж не про что-то пятидесятилетней давности.
ЗЫ: хотя нумерацию старых ATI/AMD — совершенно не знаю. Просто не интересно. Такое бывает.
> Но у AMD её 6500 непонятно гдеС таким рынком не то, что 6500 не дождёмся, но и 6600; максимум на ноутбуках.
"Да и Nvidia уже активно прёт в Wayland." Эмм, ну как бы спорное утверждение. Хотя слухи и ходят что Нвидя дрогнула, но пока что мы видим только специфическое (кастомное) решение чтобы сдлеать Xwayland не таким печальным как был. Реально попрут они когда либо продавят EGLStreams либо GBM поддержат. Мне как пользователю уже все равно кто там кого пересилит в игре в гляделки, знаю одно - Вейланд медленно но приходити и Нвидия пока что оказывается аутсайдером.
Нвидию 2008 года дропнули то ли в двенадцатом, то ли в пятнадцатом.
Да вообще тут нельзя так смотреть на это. Дропнули старый стек технологий, поддерживать который слишком уж дорого. Даже если последние карты по устаревшей технологии выпускали всего за год до того (что конечно от жадности -- остатки надо утилизировать, а не продавать).
Протокол иксов не сильно изменился за последние лет 20 и скорее всего совместимость поломана не была. А что именно дорого для вендора? Скомпилировать драйвер с новой версией иксов или дорого открыть исходники?
Я скорее про необходимость содержать код доисторических архитектур в драйвере, раздувание опять же (и кода там ОЧЕНЬ много). А несколько раздельных веток, это всё равно разрабам надо думать что там где сломается на карточках которые работали вообще по-другому (собственно, с легаси веткой так и сделали: она работает, пожалуйста, пользуйтесь -- ничем не хуже, чем было тогда, но и не лучше).Открыть исходники было бы архи дорого и просто невозможно. Там используются чужие технологии. Да и смысла делать это ровно никакого нет, особенно, когда текущая модель прекрасно работает, и всех устраивает.
>текущая модель прекрасно работает, и всех устраивает.Некоторых пользователей не устраивает. У меня ноутбук с видеокартой fermi, и на текущий момент видеокарта в не работает нормально. И, видимо, не будет уже никогда.
Ферми были очень проходные и очень неудачные, имхо. Однако, я помню даже играл 4д игрушки на nouveau в 2012 на ферми (фпс был ну такой себе, но вполне юзабельно), неужели всё так плохо стало сегодня?
> 4дтфу ты, 3д конечно
Игрушки работают далеко не все и не всегда корректно, производительность без реклока мало отличается от встройки intel. Принудительный запуск на максимальных частотах работает только для десктопных карт.
> Некоторых пользователей не устраивает. Ноутбук + Линукс + Nvidia.С точки зрения рынка — это ничто и никому неинтересно. Логично.
> Скомпилировать драйвер с новой версией иксовКак просто у диванных местных.
Просто скомпилировать – и всё.
Не понимаю, почему такой эксперт, как вы не может зайти на гихаб и ткнуть диванного эксперта конкретным коммитом, который ломает совместимость и требует переписывания чего либо вообще.
> https://github.com/freedesktop/xorg-xserver/commits/masterНу же, недиванный вы наш.
А если хоть чуть-чуть подумать? Даже банально?
Иксы — это про линуксы. Линуксы — это стейбл апи нонсенс.
Всё. Это уже сразу на поверхности Бах-бабах.
С одной стороны справедливо, а с другой - последние проблемные изменения были связаны с появлением DRM, который и предоставил стабильное API. Так что где-то с 2012-го не актуально.
Не, вполне актуально.
То вообще вон выдумают такое https://www.opennet.me/opennews/art.shtml?num=53906
P.S. наш спор ни о чём, посему предлагаю сойтись на том, что весь гемор пользователей вытекает из за проприетарной политики.
Это не так. Из-за "Stable Api is Nonsence" не получится такая простая сказка "всего-то взять и скомпилировать".А так да - всё можно сделать, конечно, но практическая польза мизерная относительно затрат.
Ну вот под оффтопиком у людей трагедия, дропнули поддержку достаточно еще мощной (примерно уровень 1080 нвидии, но значительно тише) Fury X (а также Fury, Nano и тп). Около 7 лет этим картам, да. Но тем не менее. Переведены в Legacy, в последнем драйвере AMD не поддерживаются.Так что дропают жестко, даже хорошо работающее железо - ваша карта на очереди.
> (примерно уровень 1080 нвидии, но значительно тише) Fury XНу врать-то, не соперник.
С 1070 ещё можно сравнить.
> (примерно уровень 1080 нвидии, но значительно тише) Fury XИ про шум ты вообще нагло соврал 🤥
https://www.guru3d.com/articles-pages/nvidia-geforce-gtx-107...,11.html
> DLSSЖдём аналогичную технологию от AMD в Linux. Реализация AMD несколько медленнее (за счёт того, что нет машинного обучения), но будет работать даже на картах Nvdia без тензорных ядер (этим картам DLSS не светит, а вот лишние 30% производительности не помешают).
Ненужно. Совсем ненужно. Этот кал чтобы в 720р запустить игру на большом мониторе и получить 1080р с более-менее сносной картинкой. Ну все же видели тесты в 720р. Там и 300+ кадров может быть. Так вот это нужно только для мониторов с разверткой по вертикали в 360 герц. А такие стоят тыщ по 50+ потому чо тогда это IPS с откликом "как бы менее 1мс".
Для масштабирования 720р не нужно совершенно точно - слишком мало информации(пикселей). А вот 1K &--> 2K &--> 4K вполне.
на редите писали что это допиленый шахматный рендениг, такое уже есть на консолях
на чётных кадрах рендерим чётные пиксели
на нечётных нечётные
блендинг
шарпинг
...
профит
Если бы. Тупо апскейлинг с шарпенингом. Вчистую сливает даже штатному TAA UE4.
> Тупо апскейлинг с шарпенингомНе тупо, а с edge detection. Поэтому и качество чуть хуже DLSS, но куда лучше простого масштабирования.
> на редите писали что это допиленый шахматный ренденигНет.
Зарелизили буквально пару дней назад https://community.amd.com/t5/blogs/amd-fidelityfx-super-reso...
Уже и обзор качества подкатили: https://www.tomshardware.com/news/amd-fidelityfx-super-resol...The FSR algorithm has two components. First, it does an upscaling pass to a higher resolution, with an edge detection component that works to generate a good result—better than bicubic filtering would be the goal. Then it applies a sharpening filter, and from what we can tell, this is basically just AMD's existing CAS (Contrast Aware Sharpening). CAS on its own at native resolution looks quite good most of the time, and it's relatively lightweight. So the combination of spatial upscaling combined with CAS should provide decent results, as long as you don't push things too far.
...
That's a good segue into the key differences between FSR and DLSS. Where FSR uses spatial upscaling, DLSS has multiple inputs that feed into its neural network. Besides the source image (which is what FSR uses), DLSS takes motion vectors, temporal feedback from previous frames, and the results of the training algorithm (which uses 16K images as the "Ground Truth" target). There's a lot of computation happening with DLSS, and it requires the tensor cores of Nvidia's RTX cards to reach a playable result—or at least, that's what we're told. Since it's a proprietary algorithm, we have no way of trying to run DLSS on anything else.
> Реализация AMD несколько медленнее (за счёт того, что нет машинного обучения), но будет работать даже на картах Nvdia без тензорных ядер (этим картам DLSS не светит, а вот лишние 30% производительности не помешают).Больше проблема не в медленнее, а в том, что она сильно уступает по качеству (мыло-мылом). Нвидия использует тензорные ядра чтобы анализировать кадр достаточно глубоко, и смотрит на предыдущие кадры чтобы хитро не добавлять артефакты, а у AMD это куда более примитивный sharp/super resolution, а не настоящий аналог DLSS.
Хотя то, что работает сразу везде, включая Xbox One S/X (а PS5 тоже может подтянется), это огромный плюс. Лучше так, чем ничего :)
Тебя поимела пропаганда. Никаких ядер нет.
>для реалистичного масштабирования изображений с использованием методов машинного обучения для увеличения разрешения без потери качества.Чоо за бред? Проверяли же уже что этот DLSS мылит картинку. В 4К-8К прям вообще не стоит это явление трогать. Иначе все настройки повышения изображения качества летят в задницу.
А иначе быть не может. DLSS хотя бы лучше тем, что он мылит ее намного меньше реализации от AMD за счет нейронки - тут либо просто масштабировать + фильтры или тоже самое + нейронка, которая занимается восстановлением утраченых деталей. Без нее этот "трюк" никак не провернуть. DLSS технология намного более совершенная, чем FFXSR. Из минусов - необходимость в специализированных(тензорных) ядрах.
Дело в том, что dlss строит картинку по нескольким кадрам, технология от amd работает над одним кадром и результат соответствующий. Нет, ну это имеет место быть, например, можно 720 растягивать до очень мыльного 1080, но зато графончик подкрутить повыше. Если играть с расстояния в 25 метров то даже нормально.
Дело даже не в кадрах, а в принципиально ином подходе к его обработке. Как ни крути, но dlss - это реконструкция кадра(нейронка добавляет детали и в случае ошибки, которых даже не существует).
Тут вроде говорят, что dlss 2 скрывает артефакты, в отличие от dlss 1 и этой амдешной. Нейронки в целом сомнительная вещь, они именно что рисуют то чего вообще нет (даже на глаз, и по факту его действительно нет). Тот жа ESRGAN меня довольно сильно разочаровал своими возможностями, а на качественных изображениях его просто не запустить (где взять 1000гб видеопамяти сегодня?). В принципе, конечно, может быть применимо, но это не серебряная пуля, и чаще такое подрисовывание только вредит.
OpenCL/NVidia вполне может использовать host memory для своих нужд, а машинки с 700G+ ram вполне себе существуют.
У AMD всегда был подход реалистичный. Либо это первая версия рассчитана на применение без лютой перегрузки видеокарт, либо позднее выпустят вторую версию для тех у кого новые видеокарты, но применять дадут скорее всего всем. Ведь есть любители фпс жанра, которым и мыло сойдет, ибо вся графика убита в ноль чтобы фпс был стабильно выше 240 кадров в Quake Champions. Слабым-средним видяхам там негде просто напрягать шейдерные ядра потому что обычно в играх перегруз по шейдерам, а тут люди вручную все нахрен вырубают. Так что потенциал еще есть.
С разморозкой. DLSS 2.x уже не мылит и выдаёт картинку близкую к нативной.
Но все еще артефачит. Вон народ либы подменяет, чтобы DLSS 2.2 прикрутить к играм, вышедшим до нее и уменьшить артефакты: https://www.ixbt.com/news/2021/06/19/nvidia-dlss-dlss-2-2.htmlЯ понимаю, что артефачит не то чтобы очень страшно, но вот факт же, есть проблемы и оии еще исправляются...
Дамы и господа, шансы на open source драйвер от NVIDIA упали ещё ниже...
Открытый драйвер участь догоняющих
Жрите, что дают, и не вякайте. Ах, да,.. подлечите свою истеричку, чтобы слюной не брызгала и пальцем не размахивала, иначе можете вообще без драйвера остаться.
Ваш блоб полезен только для реверсинженерщиков, разве что.
Учитывая что все истеричные новости о майнерах обычно от NVIDIA, можете надеятся и дальше.
Есть у меня АМД и нВидиа: зеленая хорошо работает под проприетарным драйвером, а красная... зря я послушал ЛОР-овец и купил это дерьмо.
Что это (и все предыдущие новости об этой проприетари) делают на опеннете?
>Добавлен новый модуль ядра nvidia-peermem.ko, позволяющий использовать RDMA для прямого доступа сторонних устройств, таких как Mellanox InfiniBand HCA (Host Channel Adapters), к памяти GPU NVIDIA без копирования данных в системную память.а что у нас DMA Peer2peer стало работать на GTX ?... и ib_client это mellanox OFED extension.
Так что толку от этого мало, кому надо только поставит модуль с сайта Mellanox https://github.com/Mellanox/nv_peer_memory
и какой тоок с него он же проприетарный
Может кто-нибудь кратко и по существу расписать тему nouveau vs Nvidia на вяленом?
Сначала были видеокарты для Altair, потому что та вообще не имела видеовывода. Центральный процессор был настолько слаб, что не мог ещё и графику отрисовывать. Да и прерываний вроде бы не было, так что проц делал только одну задачу. Если выводит изображение на экран, то клавиатуру в этот момент не слушает. И наоборот. Поэтому в видеокартах стали ставить дополнительный процессор, который обрабатывает именно вывод изображения на экран.Потом появился IBM PC. Сначала был MDA с разрешением 80x25 символов и CGA с разрешением 320x200 точек, 4 цвета. Потом появился EGA 320x200, 16 цветов. Потом VGA, 640x480, 256 цветов. Потом SVGA, 800x600, 256 цветов. Ты просил рассказывать максимально кратко, поэтому я оставляю за скобками Геркулес, Feature-контроллер, разницу в разъёмах EGA и VGA, Shadow RAM, а также много что ещё.
SVGA использовались долго - до первой половины 00-х. Более высокое разрешение экрана было доступно и во второй половине 90-х, но люди всё равно ставили ниже, потому что высокая частота обновления экрана на ЭЛТ-мониторе важнее, чем высокое разрешение.
Потом появилась проблема с тем, что нельзя выделить более 384 Кб видеопамяти. На видеокарте могло быть и 512 Кб, и даже мегабайт, но использоваться они не могли из-за спецификации IBM PC XT и более поздних моделей. Там было заявлено, что в компьютере стоит 1 Мб ОЗУ, из них приложению отдаётся 640 Кб, а остальное - на системные нужды. И расписано, что для чего. В том числе для вывода изображения на экран. Именно этот момент ограничивал максимальное количество видеопамяти.
Появились W32-видеокарты, в которых проблему обошли. Появились VESA-режимы. Появился фреймбуфер.
Начали появляться крутые видеокарты с аппаратным 2D-ускорением. Они не очень подходили для игр, скорее для CAD-ов. Например видеокарты от Matrox.
Появилась S3, ставшая самой массовой видеокартой.
Появился 3dfx, первый коммерчески успешный 3D-ускоритель. Он соединялся с видеокартой при помощи пасстру-кабеля.
Потом появилась NVIDIA Riva. Она пыталась конкурировать с 3dfx, но результатом был лишь малый процент рынка. Потом, после ряда ошибок 3dfx, NVIDIA укрепила позиции. Потом 3dfx ошибалась всё серьёзнее и серьёзнее. Потом 3dfx оказалась банкротом, и NVIDIA приобрела 3dfx. С 2001 по 2002 NVIDIA была монополистом, так как конкуренты покинули рынок, либо же были слишком слабы. Потом появилась ATi Radeon, первый (и последний) серьёзный конкурент NVIDIA.
ChangeLog драйвера NVIDIA для Linux начинается с декабря 2000 года. Странно, что так поздно: упоминания драйвера NVIDIA для Linux я находил и раньше, например в темах и сообщениях пользователей от 1998 года, по запуску Quake 2 на видеокартах от NVIDIA. Возможно, ранее драйверы распространялись вендорами (Diamond и прочими).
На видеокартах NVIDIA можно было запустить много разных драйверов. Если вы смогли запустить фреймбуферную консоль на вашей видеокарте (например при помощи драйвера rivafb), можно было запустить иксы с драйвером fbdev. Плюсы: переключение с иксов на виртуальный терминал без мерцания экрана. Минус: нет аппаратного 2D-ускорения и программного 3D через Mesa. Также можно было использовать драйвер vesa.
Сама же компания NVIDIA предлагала два драйвера: nv и nvidia. Первый имеет поддержку аппаратного 2D-ускорения и программного 3D через Mesa. Второй имеет поддержку аппаратного 2D- и 3D-ускорения. Последнее - через свою собственную проприетарную библиотеку libGL.so.1, заменяющую одноимённую библиотеку от Mesa.
В 2006 году началась разработка опенсорсного драйвера nouveau. Он базировался на nv, и в него пытались добавить поддержку аппаратного 3D-ускорения через Mesa. Это делалось при помощи реверс-инжиниринга (инженерного анализа) Windows-версии проприетарного драйвера nvidia.
В 2008 году выходит GeForce 8, и в драйвере nv не появилось поддержки аппаратного 2D на ней. Возможно, из-за того, что в этой карточке 2D ослабили в целом. Но специалисты сумели запустить 2D на GeForce 8 и 9 правкой пары строк в драйвере nv. Что же мешало NVIDIA сделать это самой? В nouveau как раз и добавили всё необходимое для 2D-ускорения на GeForce 8 и 9.
В 2008 году Intel представил технологию KMS.
В 2008 году nouveau получил первую работающую аппаратную 3D-графику.
В 2009 году radeon и nouveau получают поддержку KMS.
В 2009 году nouveau принимают в ядро Linux. Компания NVIDIA высказалась, что она не против, и в суд подавать не будет. Через неделю NVIDIA прекратила поддержку nv, предлагая использовать проприетарный драйвер nvidia. Но всё равно обязалась выпускать обновления nv для поддержки новых "иксов".
В 2010 году анонсируют Wayland - новый графический сервер. Его главным преимуществом была работа через механизмы DRI, EGL, GLES, KMS, GBM, привязка к DBus и отсутствие "сетевой прозрачности". Также Wayland обещал быть более защищённым от скриншотов содержимого экрана вредоносными приложениями.
В 2016 году NVIDIA добавила поддержку KMS в свои драйверы. Поддержку EGL и GLESv2 она добавила несколькими версиями ранее.
Стало можно работать под Wayland. Но одного компонента не хватало: GBM. Вместо него NVIDIA использовала технологию EGLStreams. У Гномеров "бомбануло", и они попросили NVIDIA использовать общепринятый механизм GBM. Но те отказались, аргументировав отказ тем, что EGLStreams является стандартизированным самой Khronos Group механизмом. В мейнстримовый дистрибутив Linux под названием Fedora (в котором раньше всех появляются новые "фичи") добавили патчи от NVIDIA, позволяющие запустить GNOME и GDM через механизм EGLStreams.
В драйвере nouveau добавили генератор "прошивок" (firmware). Затем NVIDIA добавила требоваие использовать только те прошивки, которые подписаны её цифровым ключом. При этом прошивки есть на сайте NVIDIA, но под несвободной лицензией. Из-за этого на новых видеокартах NVIDIA стало нельзя использовать реклокинг, из-за чего драйвер nouveau работает медленно.
Ну а что касается твоего вопроса. Nouveau заработает без проблем и дополнительной настройки. NVIDIA используй на Fedora, там всё "из коробки" и не требует настройки. Что ж, а я буду ждать поддержки Wayland в драйверах для Voodoo2. Тогда будет "готов".
Ненормальный. Так какой драйвер лучше? Без всей этой паранойи с зондами и чипированием через закрытые исходники
Смотря в чём твои критерии "лучшести". Если для тебя "открытый" значит "лучший", тогда nouveau. Ищи способы вставить проприетарную фирмварь, чтобы работал реклокинг. И да, на радеонах тоже есть проприетарная фирмарь, без которой не работает, внезапно, открытый драйвер.Как я уже говорил, NVIDIA не ставит открытость кода на первое место. Этот критерий у них наверное на 4-5 месте, после всего остального.
> Потом появилась проблема с тем, что нельзя выделить более 384 Кб видеопамяти. На видеокарте могло быть и 512 Кб, и даже мегабайт, но использоваться они не могли из-за спецификации IBM PC XT и более поздних моделей. Там было заявлено, что в компьютере стоит 1 Мб ОЗУ, из них приложению отдаётся 640 Кб, а остальное - на системные нужды. И расписано, что для чего. В том числе для вывода изображения на экран. Именно этот момент ограничивал максимальное количество видеопамяти.Что за дичь я прочитал? До появления защищённого режима и VESA 2.0 с linear framebuffer доступ к видеопамяти осуществлялся исключительно через 64 КБ окно — хоть 512КБ её было, хоть 1МБ, хоть 4МБ.
Во ) Давно хотел это узнать. Спасибо
Ну в общем, почитал про это.Я в исходном тексте ошибся. Адресовать можно было хоть сколько памяти - но общаться с ней можно было только через "окошко" в 64 Кб.
И ещё мне потом сказали, что скорость передачи данных по шине ISA ограничивала вывод изображения в высоком разрешении и с высокой частотой кадров.
И ещё я ошибся, когда говорил, что во второй половине 90-х были доступны высокие разрешения, но все сидели на 800x600, чтобы выставить 100 Гц. Это правда. Но оказалось, что высокие разрешения были доступны и раньше: не во второй, а в _первой_ половине 90-х. 1280x1024 и 1600x1200. Только это было дорого. А когда появились видеокарты S3 Trio, и это стало дёшево
"В 2016 году NVIDIA добавила поддержку KMS в свои драйверы. Поддержку EGL и GLESv2 она добавила несколькими версиями ранее."
Они странно как-то добавили. Firefox наотрез отказывается запускаться в EGL режиме на блоб Нвидии, уже даже залочку специально в код вставили под предлогом "поддержка EGL у Нвидии - говно".
Ого, мы с тобой об этом уже в 2021 говорили
не очень понятно, почему в ситуации двух производителей карт нет опенсорсного драйвера. кто именно сможет воспользоваться этим драйвером навредив бизнесу открывающего сорцы?
NVIDIA не ставит открытые исходные коды как самоцель. У них есть программы с открытым кодом: libvdpau, libglvnd, вклад в ядро Linux, и очень много вклада в OpenGL. Последнее - не открытый код, а окрытая спецификация. Просто уточняю.
> У них есть программы с открытым кодом: libvdpau, libglvnd, вклад в ядро Linux, и очень много вклада в OpenGL. Последнее - не открытый код, а окрытая спецификация. Просто уточняю.Тоже просто уточняю, что libvdpau, libglvnd не являются программами, так как это библиотеки. OpenGL это не программа, а спецификация. Ядро также не является программой :)
Так где же они, полезные открытые программы?
Раскатал ты меня по фактам )
> не очень понятно, почему в ситуации двух производителей карт нет опенсорсного драйвера.
> кто именно сможет воспользоваться этим драйвером навредив бизнесу открывающего сорцы?Больше они ничем не различаются. Чипов на заводе может наделать кто угодно. А софт написать могут единицы.
Slightly related: https://thehackernews.com/2021/06/nvidia-jetson-chipsets-fou...