Разработчики из компаний Red Hat и Collabora приступили к созданию открытого Vulkan-драйвера nvk для графичкеских карт NVIDIA, который дополнит уже имеющиеся в Mesa драйверы anv (Intel), radv (AMD), tu (Qualcomm) и v3dv (Broadcom VideoCore VI). Разработка драйвера ведётся на базе проекта Nouveau с задействованнием некоторых подсистем, ранее применяемых в OpenGL-драйвере Nouveau. Параллельно в Nouveau началась работа по выносу в отдельную библиотеку универсальной функциональности, которая может использоваться в других драйверах, например, в библиотеку вынесены компоненты для генерации кода, которые могут применяться для совместного использования компилятора шейдеров в драйверах для OpenGL и Vulkan...Подробнее: https://www.opennet.me/opennews/art.shtml?num=57306
Хорошее дело, наверное
ну не знаю, проприетарный драйвер имеет такую киллер-фичу, как CUDA. CUDA наше всё. Работаю в блендере и периодически запускаю нейросети. "Ноувеау" ничего из этого очевидно не сможет, так что в топку его.
Эгоцентризм - не норма для людей старше 15 лет
Клевая цитата 👍 Из какого паблика взял?
Это жизнь
В этой жизни ты либо волк, либо не волк.
> либо не волк.Пастух с винтовкой в куртке из волчьей шкуры и в каракулевой шапке?
Каждый в цирке думает, что знает в цирке, но не каждый, что в цирке знает, что в цирке не каждый знает думает.
Источник: https://statusas.ru/citaty-i-aforizmy/citaty-pro-zhivotnyx-i... © statusas.ru
Вот это уже звучит, как фраза из паблика, придуманная homo mediocritus. В этой жизни большинство так называемых "волков" - банальные псины. Впрочем, собаки хотя бы преданные.
Из паблика "Наблюдения за опеннетовскими дурачками"
За тобой наблюдают ;)
За тобой тоже, дружок:-)
Продолжайте наблюдение
а ведь почва-то какая благодатная для наблюдений!
> Из какого паблика взял?Из паблика растистов, агитирующих за единственно безопасный язык.
Жаваскрипт чтоле?
С++ естественно же.
Забавно, ты в 5 лет зарегистрировался?
В 6, как в первый класс пошёл
А каким местом оно сюда?
Проприетарь имеет cuda
cuda - это всё
нуво - не имеет cuda
Вывод - нуво в топкуА догадаться, что кому-то и даром cuda не нужен - не удалось?
Эх, буду просветителем - кому-то cuda и даром не нужен.
Надеюсь, такую сложную инфу удастся переварить :)
Зачем тогда брать видеокарту? Встройки от интела вполне хватит.
Может, чтобы в игры играть?
Может, чтобы видео рендерить?
Может, встройки просто нет?Почему видеокарта обязательно должна быть куплена с целью куды?
Бред, естественно. АМД видеокарты как-то покупаются и без куды.
И даже больший секрет скажу - покупают nvidia карты и не используют куду!
Удивительно, правда?
По всем 3 пунктам NVIDIA как-то безальтернативна. Хотя видео рендерить ей всё равно не надо, хоть качество там и лучшее на рынке, это всё же не уровень для продакшена.Вот что непонятно, так это зачем покупать видеокарту без CUDA, Те же амд это как максимум альтернатива интелу в плане встроек, интел правда поэкономнее был. Лучше дискретку от NVIDIA взять, если работать придётся на этом компе.
Как можно сравнивать встройки интела с дискретками амд?
Дискретки амд сравнивают с дискретками нвидия, если что :)
Куда интелу до них? Кроме как каких-то самых дешевых или старых (2 года и больше) дискреток сравнивать с интелами.И да, если линь - то возьму амд в любом случае. Как и большинство разбирающихся.
Как для игр, так и для работы.
И речь вообще шла о куда. Если куда кому-то нужна - то нвидия, разумеется. Но большинству не нужна, поэтому, они могут и на амд посмотреть.
Ирис про очень хорошие карточки были, по моему опыту. Сейчас intel xe выкатывают, достаточно интересные. Какой толк амд брать? Если только амд будут продавать, и интел нет, тогда может стоит рассмотреть возможность приобретения.
Если я хочу эти iris - мне нужно, как минимум, купить целый новый процессор
А по хорошему - ещё и мат. плату
Зачем, если можно купить видеокарту амд и оставить тот же процессор - не пойму
Тем более, если современные процы - избыточно мощные для тех же игр, например
Играть в игры невидиа безальтернативна? Ага расскажи об этом Габену. И вообще из всех игровых консолей на невидии работает только самая убогая - свищ. Все остальные работают на AMD.
Именно поэтому игры на консолях такое дерьмо всегда во все времена. Увы, они тормозят развитие технологий.
> Именно поэтому игры на консолях такое дерьмо всегда во все времена. Увы,
> они тормозят развитие технологий.Игры на консолях (как это не прискорбно по отношению к играм на пк) похожи на игры, а не на сетевое дрочево. Радует что большая часть из них мультиплатформа и тоже выходит на пк.
Это не отменяет того, что уровень качества подгоняют под возможности соснолей с железом в лучшем случае 10-летней давности. Потом конечно могут выпустить нормальную версию на пк, но часть особенностей останется навсегда. И я бы не разделял так. Консольность не спасает ни от лутбоксов, ни от никчёмного геймплея, ни от убого мультиплеера (это вообще требование для консольщины). Это не геймплей тоже, ничего там похожего на игры, всё одно и то же по одному шаблону в тысячный раз. Да, мыльное кинцо есть, на большее рассчитывать не приходится.
Ну так и с невидией были соснули - xbox и ps3
> Вот что непонятно, так это зачем покупать видеокарту без CUDA,Вот так совершают comin' out и признаются в своей латентной любви проприетарщине :)
Проприетарщина это фотошоп (облачный, ага), а драйвера -- часть купленной железки (проприетарной, как и все железки). При чём тут любовь-нелюбовь? Если бы мне для решения day-to-day задач был необходим отдельный ускоритель, я бы купил и его. Это приятный бонус, что такой ускоритель помимо растеризации и вывода картинки на монитор имеет кучу других применений. Собственно, именно так и поступают на практике: примитивная встройка для вывода картинки, и дискретка для использования в софте.
Сейчас код CUDA можно транслировать на AMD HIP, причем производительность получается существенно выше, чем на OpenCL.
Это когда есть код.
Особенно вся (закрытая) математика: от линейной алгебры до нейросетей.
>от линейной алгебры до нейросетей.От линейной алгебры до... линейной алгебры?
Да и вообще, ставку лучше делать на FPGA-вычисления. Майнинг показывает, что ПЛИСы вторые по производительности после ASICов.
Расскажи плз как сделать куда на ПЛИС друг попросил, говорит очень надо.
Нахера ему это Куда ваще? Пусть сразу математику компилирует в прошивку FPGA. Инструменты Xilinx это могут.
Он не умеет в математику, ему надо чтобы уже готовое работало с CUDA. Типа по быстрее чтобы.
Уверен, с CUDA не прокатиться, но идея использовать их для обучения нейронок мне кажется перспективной
Слишком сложно нам надо результат, а не чтобы эта ваша всякая математика.
> Уверен, с CUDA не прокатиться, но идея использовать их для обучения нейронок
> мне кажется перспективнойКому было сильно надо - NPU понаделали уже. Это сильно эффективнее GPGPU т.к. оптимизировано на задачу. Суть в том что пихают примитивные ALU, они конечно совсем уг как процессор общего назначения, зато очень маленькие и на кристалл влезает дофига этого счастья.
И пока нвидия рассказывала как она крута, те кому надо было много и всерьез затолкали вон те более специализированные акселераторы - и измеряют производительность в GIOPS и даже TIOPS, там чаще целочисленная математика вместо плавучки: так ALU мельче, так что вот вычислялки в int8 каком, зато крупным оптом. Для счета состояния нейронов хватает а больше и не надо.
Кстати, между делом в новом, самом мощном суперкомпьютере почему-то образовался амд. И CPU и GPU. Наверное поэтому нвидия и слила драйвер опенсорс, но эти проприетарии все никак не поймут что "сгрузить сорц с лопаты" != "поддержка Linux".
А ты жесткий, рубишь правду матку.
Чукааак, ну это прям ту мач.
Кому нужна CUDA, могут пользоваться закрытым. Для некоторых проприетарная технология с закрытым драйвером не приемлема. Если будет открытый аналог, можно будет пользоваться видеокартой, даже если NVidia дропнет её поддержку или обанкротится, например, в результате войны на Тайване.Некоторые люди предлагают вместо термина "закрытое ПО" использовать термин "неэтичное ПО", т.к. ПО которое скрывает, и явно запрещает изучать, что оно на самом деле делает, вызывает недоверие.
Но закрытую фирмварь видеокарты эти некоторые кушают за обе щёки.
АMD Тоже производят на TSMC если верить ответам на mail.ru Всем внезапный пушной зверек придет, не только Nvidia.
А зачем им всем топовый техпроцесс. Если есть заводы интела на 14 нм в США. Туда китайский винни-пух точно не достанет.
>если верить ответам на mail.ruТам уже вся омерика рухнула, несколько лет назад, а РФ на первом месте по всем показателям.
GlobalFountries отшнуровка амд если mail.ru не в курсе.
Фактически, CUDA - это якорь, который уже на многие годы затормозил повсеместное внедрение гетерогенных вычислений. Потому-что вместо продвижения универсального стандарта, который будет работать везде, разработчики продолжают упорно обмазываться проприетарщиной.
То придумывают замену Master и Slave, теперь и "неэтичное ПО" вместо закрытого. Когда эти люди наконец поймут, что использование новояза не решает проблемы, особенно если проблемы с "не теми словами" изначально только у них в голове?
> ну не знаю, проприетарный драйвер имеет такую киллер-фичу, как CUDA. CUDA наше всё.В топовом суперкомпьютере (#1 в TOP500) почему-то AMD. Не оценили прелести глюков проприетари?
Маловероятно что блоб переплюнут,но в целом одобряю. Nvidia топ на самом деле. Intel при прочих равных чуть похуже в плане производительности,но качество картинки повыше. Про aMD сказать нечего,у меня таких не было.
Блоб и не нужно переплёвывать, нужен работающий драйвер с базовым 3D, чтобы хотя бы рабочие столы нормально работали. У Нуво в этом плане бывают удивительные глюки.
Я Ньювоу и не пользовался плотно никогда. Про глюки тем более ничего не знаю соответственно, а вот качество блоба это конечно уровень,по крайней мере для меня. Когда амдэшники слайдшоу наблюдали я уже норм гамал на Линукс и под Вином. D
> Я Ньювоу и не пользовался плотно никогдаДа я тоже, только эпизодически, но с чудесами всё равно столкнулся: зависания GUI на ровном месте (лочишь сеанс, уходишь по делам, через пару часов возвращаешься, а вся графика висит намертво), тормоза отрисовки (резко ресайзишь окно и оно медленно тащится за мышкой как резиновое).
У интела на порядки хуже кодек стоит. Из-за этого полный интернет помойных в плане качества видосиков, хомячьё юзает это "аппаратное ускорение". На мобилках впрочем ситуация ещё хуже.
я про игори,вот 4 фолыч запускал и сравнивал.
У NVIDIA лучше SSAO и качественный аналог MSSA, они специальные и проприетарные, только у неё игры хорошо будут выглядеть. Хуже картинга быть не может. Амдшный FSR опять же не альтернатива нвидиевскому, о рейтрейсинге и говорить нечего. А что касается линукса, показывали, что dxvk чёткую картинку выдаёт тоже только на nvidia -- у амд глитчи и "срезаные углы", при том, что одно время амд наоборот славился тем, что всю мощность пускал на бетонные блоки, когда зелёные не тратили все ресурсы на те блоки и всякие невидимые текстуры.
Более мутно чем у Intel,но зато плавнее идет игра. У Intel четкость лучше.
Это наверно не чёткость, это меньше графония. Я тоже иногда хочу тени отключить в некоторых играх.
ХЗ,спорить не буду. Все субъективно.
Говорят, FSR 2.0 местами даже лучше чем DLSS. Ждём, когда вторую версию добавят в WINE.
Оно не может быть лучше, потому что FSR - это маркетинговое название относительно старых и известных алгоритмов апскейла. Грубо говоря, "умное" размытие с определением границ геометрии и попыткой сохранить контраст. То есть "мыло" всё равно будет в каком-то виде, новой информацми взяться просто неоткуда.В то время как DLSS именно что дорисовывает картинку, используя нейросети. Насколько "правильно" он это делает - другой вопрос. Видимо достаточно чтобы глаз "обманулся".
> новой информацми взяться просто неоткуда
> DLSS именно что дорисовывает картинкуИнформацию откуда берет?
>> новой информацми взяться просто неоткуда
>> DLSS именно что дорисовывает картинку
> Информацию откуда берет?Оттуда же, откуда и все нейронки, из libastral. По нескольким кадрам результат всё же лучше получается в среднем.
> По нескольким кадрам результат всё же лучше получается в среднем.Судя по (рекламным) публикациям о FSR, используется что-то вроде TAA (temporal antialiasing), что есть "усреднение по нескольким кадрам".
Насколько я знаю, DLSS прям вообще гадает на кофейной гуще. Первые версии были жалкое зрелище, но сейчас вполне ничего результаты.
Главный вопрос: на чём тренируют?
Если берут отмасштабированные картинки с использованием "старых алгоритмов", то нейронка будет имитировать работу "старого алгоритма". Грошь цена такой нейронке.
Если берут определенные 3D-движки/игры и рендерят одну и ту же картинку под разные разрешения, то результат будет хорошим (только) для этого движка/игры.
ESRGAN как-то же угадывает, вполне универсально. Да, там совсем не то, что было в оригинале, но глазу всё равно.
> ESRGAN как-то же угадывает, вполне универсально.Который тренировали на естественных(!) картинках, отмасштабированных "старыми алгоритмами" для естественных картинок? Получили имитатор "обратного" алгоритма.
А компьютерная графика она неестественна - дискретна.
> А компьютерная графика она неестественна - дискретна.Не приходило в голову что картинка даже с камеры - дискретна? В этом случае нейронка ее видит точно так же как и я на мониторе - 1 в 1. И картинка на монитора тоже дискретна, так что даже generated данные не вариант. Более того - наш мозг неплохо сжирает это за чистую монету если уровней дискретности достаточно. Если кто не врубился, люди делали средства ввода-вывода под то что неплохо интерфейсится их естественным нейросеткам. Искусственные чем-то так принципиально отличаются что им те же данные будут хуже чем самим двуногим?
Да, в версии 2.0 добавили, но масштабирование потом все равно шейдером в котором реализован обычный Ланцош, в отличие от DLSS который имеет более качественную в плане четкости / меньше артефактов реализацию на тензорных ядрах.
Ты забыл что нейронки обучаются на конкретной игре. То есть там под каждую игру - своя нейросеть. Именно поэтому поддержка DLSS должна быть от разработчиков, а мыльный FSR можно уже на готовую игру натянуть пост-фильтром.
DLSS,ну,вы прям вообще про современность. Я про 10 летнее железо описывал. Сразу указать не додумался.( Про субъективность я все же потом отметил...
Я человек простой, тестировал у себя DLSS и FSR1.0. И признаю, что 1 версия никуда не годится по качеству. Хотя DLSS тоже сразу видно, когда он активирован, какое качество не поставь. А вот вторая версия по отзывам уже намного лучше, потому что наконец-то использует оценку движения кадра (motion estimation). А каким алгоритмом это достигается - нейросетями или ещё каким libastral - мне совершенно плевать.
FSR 2.0 нельзя добавить в WINE, внедрением занимаются непосредственно игроделы.
Ну я исхожу из того факта, что 1.0 в вайне есть, вдруг и 2.0 получится прикрутить.
А ты дырень.
Ох, хорошее ли. Что-то где-то как-то краем уха слышал, что месаразрабы насмотревшись бенчмарков эмуляции опенжиеля на вулкане, решили всех пересадить на вулкан, а опенжиель транслировать в вулкан и заставить всех таким вот крабооборотнем пользоваться. Если это так, то вполне возможно, что в нуво пихают этот вулкан для стандартизации, чтобы перейти к следующему шагу. Но это не точно.
В этом нет ничего плохого. По факту, OpenGL безнадёжно устарел, это уже мёртвая и тупиковая технология. Как DirectX 11 из мира Windows, который так же уже эмулируется на базе DirectX 12+.
Дело не столько в месаразрабах, сколько в "кроссплатформенном стандарте следующего поколения" https://www.vulkan.org/porting
В один прекрасный день производители железа начнут экономить на драйверах для устаревших стандартов. А в следующий не очень прекрасный - Qt после скачивания через прокси нарисует на экране фигу, но это не точно.
Маркетолухи сдулись. Сидим часто на устаревшем железе и мучаем тем самым легаси - как говорит Айпоня, разрабов. Раньше у меня как было - тянет или нет? Оказалось же в последствии,что можно извращаться и спокойно жить дальше.
>Qt после скачивания через прокси нарисует на экране фигу, но это не точно.Больше на GTK похоже. Это у них обратная совместимость даже с собственным же зоопарком либ по жизни отсутствует.
GTK не присоединились к санкциям, пока можно использовать свободно без оглядки на умение местных "разработчиков" настроить прокси и прочесть лицензию на английском языке.
>Хорошее дело, наверноеНадеюсь, не ржавое.
Опять ненавидия отличилась. И вокруг неё надо делать велосипеды.
Нет, не надо. Но если хотите — делайте, никто не запрещает.
У меня было три невидии: mx4000, которая не видела dx9, 7600 - изображение не видно было спустя несколько месяцев, 8400m - шары свинца не видели и потом за серой тучной мутью с зелёными фирменными полосами не видно было, потом GTS450 - не успел не видеть, продал. Потом уже Интел и щаз АМД, 10 лет нет проблем.
ХЗ,пиратский Линукс наверное был.XD Мне как досталась Geforce 200, так и норм. До сих пор где-то валяется.
"Шары свинца" - это не урвать кусок цветмета на шару, а такие шарики припоя, которыми паяют микросхемы, которые иногда отваливаются. Буква "m" в "8400m" - это ноутбук, который пришлось выкинуть на помойку.
Прежде чем начинать что-то новое довели бы до конца уже начатые проекты.
Ну а как ещё можно заставить баш-программистов "Russian OS & Application" перестать качать Qt без регистраций и СМС, когда они с первого раза намёк не поняли? Выкинуть "устаревшее" и "неподдерживаемое".
А в кедах разве не все так? Допилили,вылизали и на помойку. Пилим следующий УГ который после превращения в конфетку снова выбросим. Опенсорс же - никто никому не должен,значит кодят ради того чтобы кодить.D Обожаю айтишизу.XD
Что там происходит в KDE - их личное дело и право, как авторов. Вот когда это всё выдаётся за некое отечественное достижение, при этом на вопрос "какие гарантии?" ответом служит "GPL же!", возникает много других вопросов.
Опять таблетки принять забыл?
Сюрволух, ну почему я должен за тобой следить? Заведи будильник и принимай по нему.
>намёк не понялиА когда Qt стала проприетарным софтом?
>>намёк не поняли
> А когда Qt стала проприетарным софтом?Судя по слову "стала", спрашивает любитель халявы. Придумывает ложный тезис (была свободной) и примитивной манипуляцией перекладывает на оппонента бремя доказательства.
Отличительная особенность любителей халявы - они хотят, что бы всё искали за них:
До версии 4.0.0 под свободной лицензией распространялись лишь Qt/Mac, Qt/X11, Qt/Embedded, но, начиная с 4.0.0 (выпущенной в конце июня 2005), Qt Software «освободили» и Qt/Windows. При этом существовали сторонние свободные версии Qt/Windows ранее 4.0.0, сделанные на основе Qt/X11.
Начиная с версии 4.5 Qt распространяется по трём лицензиям:
Qt Commercial — для разработки программного обеспечения с собственнической лицензией, допускающая модификацию самой Qt без раскрытия изменений;
GNU GPL — для разработки с открытыми исходниками, распространяемыми на условиях GNU GPL, а также для модификации Qt;
GNU LGPL — для разработки программного обеспечения с собственнической лицензией.Как видно, Qt всегда была и остаётся проприетарным продуктом, который иногда можно использовать на халяву. Руссбиттех, судя по новым вакансиям, поняли, что халява закончилась. Но они, если правильно помню, и раньше за Qt платили.
Qt GPL и LGPL - свободые. И проблема Руссбиттех решилась бы открытием Fly под GPL.
Сами хоть что-то написали, или только чужое использовали?
> Qt GPL и LGPL - свободые. И проблема Руссбиттех решилась бы открытием
> Fly под GPL.Судя по отсутствию ответа на #110 - ничего сам не писал.
Вторая отличительная часть любителя халявы - видит только удобную для него часть бытия, но не картину в целом.
> CollaboraЛучше бы wayland-драйвер для Wine пилили. Уже полтора года разрабатывают, а даже в staging еще не отправили.
> и Джейсон Экстранд (Jason Ekstrand), активный разработчик Mesa из CollaboraСтало быть, в коллаборе есть и пассивные разработчики
Шутка-отсылка к тому педерасту неопределённого пола которого постоянно пиарили применительно к разработке энных дров коллаборой притом, что работала над теми дровами целая толпа народу о самом существовании которой даже не упоминалось
а ето вы товарищ просто не в курсе современных трендов в разработке графического стека под линукс.вон Эрик Анхольт уже давно Эмма, Кароль Эрбст в новости назван Кэрол - видимо, тоже свитчанул. про ориентацию airlied вообще давным-давно все знают, еще сам Торвальдс в lkml писал: "Если этот п*дор снова пришлет патч на 400 килострок одним кусочком, я за себя не отвечаю!"
> вон Эрик Анхольт уже давно ЭммаДа хоть рептилоид с марса если хорошо кодит и решает проблемы человечества, не создавая чрезмерных проблем имхо. Что первично при разработке софта, код или биологические дырки?
> еще сам Торвальдс в lkml писал: "Если этот п*дор снова пришлет
> патч на 400 килострок одним кусочком, я за себя не отвечаю!"Это обычные рабочие моменты. А так Эйрлиед на весьма хорошем счету у Торвальдса и иногда может попросить под свою ответственность нехилые вещи, как с simpledrm было.
История simpledrm забавная. Его именно airlied прожал чтобы поддержать нового контрибутора, а со временем код отрефакторили, и победил консенсус. Постепенно девы основного drm/kms втянули эти хелперы в основную часть, simpledrm "растворился" как отдельная сущность, ядро заумело подцеплять мелкие стекляхи типа ILI9xxx всяких с куда меньшей канителью. Общий итог? Теперь Linux довольно вменяемо ворочает графику для сравнительно небольшой эмбедовки. Кто еще так может? А коли так - не им давать курс кодинга ядерной графики.
И с чисто практической точки зрения с airlied очень клево, конструктивно и эффективно взаимодействовать в вон том контексте. А в какоие он там дыры и с кем - лично мне похрен, если и я по части DRM/KMS от него что-то хочу.
Про толпу верно, но не наезжайте на Алису, это жертва системы. Система требует жертв и примеров для подражания. У нас вон "разработчики" POCA LINUX XPOM ампутировали себе совесть, и никого это не волнует.
Странно, что не стали использовать в разработке недавно открытый модуль ядра от самой nvidia. Или это другое? Как бы не получился опять драйвер-инвалид, который может только 10% производительности.
На базе неработающего развивается ненужное
Жалко что не будет поддержки карт pascal🥲
Й тут такие гламурные кисы прям сидят, эти драйвера нужны людям что бы запустить geforce 210 что б хоть какой то рабочий стол был виден и всё.
Проприетарные драйвера не справляются с такой простой задачей-увы
> Проприетарные драйвера не справляются с такой простой задачей-увыНа Debian 11 можно установить драйвер 340 из Sid-а.
У меня драйвер от nvidia не запускается на gt650m (раньше работал на Debian 7). nouveau заработал и производительность не хуже чем под windows10 (сравнивал на Unigine heaven). Буду ждать когда допилят Vulkan...