Представлен релиз свободной реализации API OpenGL и Vulkan - Mesa 20.1.0. Первый выпуск ветки Mesa 20.1.0 имеет экспериментальный статус - после проведения окончательной стабилизации кода будет выпущена стабильная версия 20.1.1. В Mesa 20.1 реализована полная поддержка OpenGL 4.6 для GPU Intel (драйверы i965, iris) и AMD (radeonsi), поддержка OpenGL 4.5 для GPU AMD (r600) и NVIDIA (nvc0), OpenGL 4.3 для virgl (виртуальный GPU Virgil3D для QEMU/KVM), а также поддержка Vulkan 1.2 для карт Intel и AMD...Подробнее: https://www.opennet.me/opennews/art.shtml?num=53041
Пора бы уже чтоб весь софт на вулкан переходил. А OpenGL чтоб оставляли только для совместимости со старыми играми
> Пора бы уже чтоб весь софт на вулкан переходил. А OpenGL чтоб
> оставляли только для совместимости со старыми играмиМы ещё не перешли с GLX на EGL для всего софта и композитинга
А зачем переходить с GLX на EGL, если EGL ограничивает, а не добавляет функциональность?
Только чтобы с вяленым якшаться?
отвечаю двум ниггам выше: opengl давно издох, вылезайте с криокамеры. вулкан рулит и даже основательно подвинул директх.
На KDE до сих пор все рисует OpenGL 2 (даже не 3 по умолчанию).
Ну а куда он денется? Иначе он не сможет юзать ускорение совсем на половине интелских интеграшек.
жаль только на мобильной графике в Vulkan FPS падает в сравнении с OGL4.6 почти в x2 :-D
а так рулит, да
> жаль только на мобильной графике в Vulkan FPS падает в сравнении с
> OGL4.6 почти в x2 :-D
> а так рулит, дачем сравнивали?
а то бывает такая кривота
типо что под вайном с дх - 100 фпс, а в нативной версии всего 50 фпс, а под вайном с dxvk - 150 фпс
Unreal Engine 4ну и у Nvidia тех же бенчмарках такое безобразие наблюдается, падение FPS для мобильной графики (при чём это даже не в объёме видеопамяти, её хватае на ура)
но при этом и Khronos, и Nvidia всё валят на проблемы разработчика конечного продукта (в моём случае на UnrealEngine и Epic'ов)
Похоже что это прямо игродел накосячил а не сам эпик. Вполне реально...
уточню: тесты с пустой сценой
> а то бывает такая кривота
> типо что под вайном с дх - 100 фпс, а в нативной
> версии всего 50 фпс, а под вайном с dxvk - 150
> фпсда знакомые офигели, когда увидели в играх FPS в x1.5 выше под вайном, чем на виндовсах
да, очень жаль что на мобильной графике вулкан поддерживают жопорукие
Давай начнём дискуссию. Я расскажу, как я вижу картину, а ты, если не согласен, поправляй.В 80-е появилась компания Silicon Graphics, которая делала аппаратные 3D-ускорители. Их рендер-фермы стоили десятки и сотни тысяч долларов и работали на UNIX. Также были рабочие станции, чтобы собственно моделировать. Они тоже работали на UNIX. Также требовалось купить много программного обеспечения от сторонних компаний, которое в сумме могло стоить примеино как сам компьютер.
Для работы ПО с аппаратным ускорителем был API IrisGL. Работало так: приложение-IrisGL-железо. Это на рендер-ферме, на которой нет задчаи выводить изображение на экран. На рабочей станции, IrisGL общался одновременно и с приложением, и с X11 для вывода картинки на экран. Между X11 и IrisGL был посредник - GLX. Связка OpenGL-GLX-X11 описана в книге OpenGL Green Book https://images-na.ssl-images-amazon.com/images/I/51Z2A2YECDL...,204,203,200_.jpg
Потом наступили 90-е, был успех Терминатора 2 и других фильмов с крутым CGI.
Потом IrisGL открыли в 1992, появился OpenGL. Теперь OpenGL - не только на компьютерах Silicon Graphics, а приложению плевать, с устройством какого именно производителя работать. Очень крутая штука.
Потом Silicon Graphics помогла Microsoft написать OpenGL под Windows NT в 1994. Операционка от Microsoft не умела такую штуку, как прямой доступ к железу, в отличие от UNIX. Поэтому Doom был только под DOS, а под Windows были только пошаговые стратегии вроде SimCity. Даже видео выводить научились с трудом, и только 160x120. Поэтому без помощи "силиконов" Майкрософт бы не справился. Посредником между OpenGL и дисплейным сервером Windows стал WGL. OpenGL-WGL-Windows. The White Book: https://postimg.cc/McFB7rC2
Потом у нас начали популяризироваться Linux, FreeBSD, Solaris и Mac OS X. Во второй половине 90-х линуксоиды гоняли Quake 2 и 3 на аппаратно ускоряемом OpenGL под 3dfx и NVIDIA.
Примерно в 2000 году начал зарождаться композитинг под Mac OS X. Изначально софтварный, позже вендоры видеокарт добавили аппаратную поддержку в GeForce 2 и Radeon 7000.
Под Windows сначала сделали новый дизайн (в Windows XP он изменился впервые с 95 версии), потом стали делать Aero, композитный менеджер, который должен был войти в Windows 2003, потом отложили до ОС с кодовым именем Longhorn. Потом её отменили, и в общем релизнули в Windows Vista в 2006. Через 5 лет после Mac OS X, да.
В 2003 году начали "пилить" композитинг в линуксе. Где-то я видел статью примерно 2003-2005 года от Peter Hutterer (также известного как Who-T). Там был подробный разбор о том, как устроены "иксы", в том числе подробно остановились на композитинге. Но найти беглым гуглингом не смог. Зато нашёл от другого уважаемого человека - David Reveman: https://pdfs.semanticscholar.org/9368/241b86218362c4ccd8dd2d...
Тут стоит сказать вот что. Есть такой термин - Direct Rendering. Я всегда думал, что это как-то связано с прямым доступом к железу. Пока мне олдфаги не объяснили, что это рендеринг картинки прямо в видеокарту, минуя "иксы", и, засчёт отсутствия одного из звеньев цепи, это происходит быстрее.
Когда появилось расширение для "иксов" под названием DRI, им не захотела пользоваться NVIDIA в своих драйверах для UNIX/Linux, заявив о куче недостатков. Спустя несколько лет была выпущена DRI2, которой NVIDIA вроде пользуется. До до выпуска DRI2, в драйвере NVIDIA была своя реализация технологии Direct Rendering. Поэтому glxinfo на их карточках выдавал "Direct Rendering: yes".
Приложения, даже не использующие 3D, всё равно были вынуждены выводить изображения через OpenGL. В противном случае, никакого DRI: на NVIDIA только через libGL можно было выводить в DRI. Это сейчас можно через libdrm выводить, не используя OpenGL.
Появился XGL. Это X-Server, пропатченный таким образом, чтобы выводить всю картинку через OpenGL. Не только игры и 3D-редакторы, но и рабочий стол, панель задач, окна каких-нибудь приложений, вроде калькулятора или текстового редактора.
Потом появился DRI2. Благодаря нему, теперь любое приложение может выводить Direct Rendering, а не только OpenGL-приложение. В качестве альтернативы XGL появился AIGLX.
Даже сейчас приложения предлагают выбор, какой именно прямой вывод ты будешь использовать: libGL или libdrm? например VA-API GLX и VA-API DRM. "compton --vsync opengl" или "compton --vsync drm". Это только первые пришедшие в голову, а так вроде много что предлагает выбирать.
А когда DRI2 ещё не появился, а следовательно и AIGLX не появился - все пользовались XGL. И все говорили: это же костыль! Давайте заменим XGL на Xegl! Там вместо GLX используется EGL, и там костылей нет!"
Подробный разбор тут: https://www.linux.org.ru/news/doc/1588780?cid=1589238 И через один коммент после этого пишут "вот поэтому все ждут Xegl"
Если выполнить поиск Xegl по форуму, видно что многие его ждали. https://www.linux.org.ru/search.jsp?q=xegl&range=ALL&interva...
https://www.linux.org.ru/news/linux-general/2986543?cid=2988539 например вот в этом комменте под новостью о том, что Novell прекратила разработку XGL в пользу DRI2 + AIGLX, человек пишет "Очень плохо. Прощай Xegl.."
Мне кажется, что AIGLX (Accelerated Indirect GLX) в качества движка для композитных менеджеров появился из-за того, что Xegl всё никак не выходил, а не выходил он в свою очередь потому, что библиотеку EGL (идущую на смену GLX) всё никак не могли закончить. И только спустя несколько лет, EGL доделали, и она стала популярна... на Android (из-за чего ошибочно считается, что EGL - только для OpenGL ES. На самом деле, с обычным OpenGL она работает не хуже).
Разве правда, что EGL сделан хуже, чем GLX? Я слышал только хорошие отзывы. О том, что одна библиотека для Win/Lin/Mac/Android/iOS, а не XGL/GLX/CGL, как было раньше. И что композитинг через EGL делается легко и приятно, а в XGL/AIGLX не так.
P.S. Лично я познакомился с композитингом в линуксе в 2006 году при помощи LiveCD-системы, не требующей установки: https://www.linux.org.ru/news/linux-general/1302351 Если до этого на ЛОРе постили только скриншоты с тенями и плавным появлением/исчезанием окон с прозрачностями (XGL + xcompmgr): https://www.linux.org.ru/gallery/screenshots/1405803 То в этой системе я увидел XGL + Compiz: кубик, желеобразные окна, Zoom по Win+скролл, прозрачность окна по Alt+скролл, и изюминка: дождь по Shift-F9.
А потом, что называется, понеслась. https://www.linux.org.ru/search.jsp?q=xgl&range=TOPICS&inter...
А в зарубежном интернете в тот момент началась какая-то бурная популярность убунты 6.06 - и как я понял, именно из-за композитинга. У себя SUSE 10.1 я не смог включить его (прога для включения говорила, что у меня неподдерживаемый драйвер, хотя у меня был новейший драйвер NVIDIA), поэтому я и сам установил на второй раздел Ubuntu 7.04. Тоже пришлось помучиться: установленный из репозиториев Beryl наотрез отказался запускаться, пока я не выполнил это:
nvidia-xconfig --composite
nvidia-xconfig --allow-glx-with-composite
nvidia-xconfig --render-accel
nvidia-xconfig --add-argb-glx-visualsА в Ubuntu 7.10 уже был Compiz Fusion и драйвер NVIDIA 100.14.19, в котором всё включили по умолчанию, и настраивать ничего не нужно.
Ой, а кстати вот статья, которую я не мог найти. Вот она: https://www.linux.org.ru/news/opensource/1056786?cid=1058518 Только её автор не Who-T, как мне изначально казалось, а Jon SmirlВ статье делается основной упор на DRI как на будущем X11. Что интересно, разговоры о том, что DRI это будущее X11, начались ещё во времена XFree86, за год до появления Xorg. https://www.linux.org.ru/news/opensource/295328
> Дэвид Вексельблат (David Wexelblat), полагает, что времена клиент-серверной архитектуры X прошли и предлагает переписать его, используя одноуровневую модель "direct- rendered" ("прямой вывод"), сохранив при этом обратную совместимость с традиционным X11
Это они в 2003 году предсказали Wayland? Хотя тут высказывают мнение, что "уход от клиент-серверной модели" означает совсем другое. Хотя этот коммент вообще из 2009: https://www.opennet.me/openforum/vsluhforumID3/54283.html#4
Описание DRI по твоей ссылке https://www.linux.org.ru/news/opensource/1056786?cid=1058518 как-то отличается от твоего пересказа. Было бы здорово почитать оригинал текста на английском, жаль что ссылка мертва. Спасибо за текст, было интересно почитать, я те времена не застал.А описание Xegl с твоих слов очень уж сильно напоминает Wayland, странно что ты сам не обратил внимание. https://www.linux.org.ru/news/doc/1588780?cid=1589238 Типа легковесный XGL, который рулит только контекстом через EGL, а от тяжеловесного Xorg можно отказаться. Эм, это точно 2006 год?
http://web.archive.org/web/20050924232137/http://dri.freedes...
>EGL ограничивает, а не добавляет функциональность?А ты не путаешь EGL с OpenGL ES?
>> Пора бы уже чтоб весь софт на вулкан переходил. А OpenGL чтоб
>> оставляли только для совместимости со старыми играми
> Мы ещё не перешли с GLX на EGL для всего софта и
> композитингаи чего, когда перейдём? кого ждём?
Много чего пора
Для многих случаев вулкан избыточен, при этом он сложен.Для части софта так вообще opengl 2 достаточен
vulkan это легковесное, максимально близкое к железу api. opengl ограниченный, жирный блоб, унаследованный от динозавров> сложный
лучше пожертвовать таким разработчиком как ты, чем производительностью
Vulkan по производительности сравним с DirectX и намного превосходит OpenGL
Vulkan по производительности и возможностям сравним и превосходит dx12. Opengl 4.6 вроде имеет паритет с dx11. Но если так смотреть на вещи, теперь вместо тяжёлого сложного рантайма opengl есть эффективный модульный рантайм vulkan, а слой абстракции подобный opengl (но значительно более гибкий) теперь предоставляют либы. Древний opengl (до 4.x) это жуткое легаси, его там несколько раз перекраивали уже. На сегодня можно забыть, его поддержка осталась только в устаревших никому не нужных движках. Ну и у эпла тоже только opengl-2 по-моему, но всем плевать на эпл, а кому не плевать, у тех есть возможность писать на вулкане и использовать транслятор вроде moltenvk.
Вулкан почти нигде не поддерживается, не только для мажоров же софт клепать. Особенно в тех случаях никакие фичи вулкана не используются, и хватило бы opengl 2.
Если твоему компу 10 лет то да, у тебя вулкан не поддерживается
> Вулкан почти нигде не поддерживается, не только для мажоров же софт клепать.Ну тут как бы вопрос на что targeting.
> Особенно в тех случаях никакие фичи вулкана не используются, и хватило бы opengl 2.
В 10 раз больше draw calls в единицу времени - само по себе весьма конкретная фича, если ты понимаешь о чем я.
Таргетинг на людей с топовым железом при создании хелловоролд 2д игрушек это крайне тупо, особенно когда оно даже на glBegin/glEnd выдаёт 500 фпс, это оптимизацией не оправдать. Вот если нужен йоба графоний, где каждая микросекунда на счету, то тогда использование Vulkan оправдано.
Разрабы факторио тоже оценили результаты привязки к доисторическому опенгл, да. Почитайте их девблог.
Факторио сейчас работает на OpenGL 3.3 и они периодически постят в девблог как оптимизировали что-то для компов 10-и летней давности. Они не выбрали Vulkan т.к. (цитата с девблога):>we are focusing on older APIs first as a large portion of our current player-base doesn't have Vulkan capable hardware
И я их уважаю за эту их позицию.
Это сейчас, они свалили с https://en.wikipedia.org/wiki/Adventure_Game_Studio (по-моему).Это не позиция, это лицемерие, но их можно понять: когда факторио была актуальна, вулкан ещё развивался и были только первые попытки его применения. Им не было никакого резона тратить столько ресурсов на изучение и разработку нового апи, и тем более на миграцию.
...и все же, в 10 раз больше draw calls - это в 10 раз больше draw calls. И топовым этому быть не обязательно, просто относительно новому. В случае AMD - GCN. Даже относительно старый и маломощный, который на "топовый" наверное все же не тянет.А то что старичкам не повезло - да, для кого кодить всем впадлу, у кого HW заточен не на это...
На Phoronix была новость о том, что разработчики драйвера Radeon решили удалять поддержку AGP-карточек.
> На Phoronix была новость о том, что разработчики драйвера Radeon решили удалять поддержку AGP-карточек.Давно пора. Современные встройки быстрее AGP-топов, про жар и жор вообще молчу, а стоят копейки. Фанаты могут ещё лет 8 наслаждаться CentOS 8 и копить, оплатить поддержку или форкнуть Mesa и поддерживать нужное собственноручно.
>> На Phoronix была новость о том, что разработчики драйвера Radeon решили удалять поддержку AGP-карточек.
> Давно пора. Современные встройки быстрее AGP-топов, про жар и жор вообще молчу,
> а стоят копейки. Фанаты могут ещё лет 8 наслаждаться CentOS 8
> и копить, оплатить поддержку или форкнуть Mesa и поддерживать нужное собственноручно.Производительность AGP-шной 3850 или 4670 вполне достаточна для сегодняшнего дня. Компьютеры 2005 года тянут современный веб и десктопные приложения. По тестам, 3850 быстрее 4670, но на 3850 только UVD 1, тогда как на 4670 - UVD 2.2. https://ru.wikipedia.org/wiki/Unified_Video_Decoder#UVD+
> Производительность AGP-шной 3850 вполне достаточна для сегодняшнего дняPower Consumption: 100 Watt IDLE
Ужас...
Это ты ещё Пентиум 4 не видел до внедрения всех энергосберегаек.
> Это ты ещё Пентиум 4 не видел до внедрения всех энергосберегаеквидел :( без шуток ставил 1 КГ медный куллер
Ну, это и сейчас неплохая идея
> Ну, это и сейчас неплохая идеяНу так тогда это была минималка, чтобы можно было поставить что-то не бешено крутящиеся и получить 55 С без нагрузки.
> Ну, это и сейчас неплохая идеяПросто у них idle как такового не было - управление питанием было по сути никакое. И как-то раз лично я видел как офис с этими чудными штуками пересилил промышленный кондиционер. Как ты думаешь, что было дальше? :) Правильно - офису пришлось зашатдауниться нафиг. Потому что +40 в помещении - это перебор.
Медные килограммовые бандуры совершенно не эффективные, у меня валяется zalman 7700cu, он даже неразогнанный AMD FX не может охладить.
> у меня валяется zalman 7700cu,ну вот какой-то типа и был... от безнадёги ставил
>> у меня валяется zalman 7700cu,
> ну вот какой-то типа и был... от безнадёги ставилЯ для двуядерного атлона в своё время брал его. Когда на бульдозер перешел очень сильно удивился разнице кулеров с испарительной камерой и без.
3850 очень горячая и очень шумная(можно отредактир bios..)!
И равна в играх интегрированной celeron 3930.
Так что 38xx это хлам
> Давно пора. Современные встройки быстрее AGP-топов, про жар и жор вообще молчу,RivaTNT, жор смотреть лень - но охлаждение там пассивное.
Тянет NFS3/4, HL-Ъ, Unreal/UT99, StarCraft, Homeworld, Dark Reign, Earth 2140, Tomb Rider ...
> StarCraftГы. Там 640x480x256 colors, плоский 2D, так что это даже с VESA работает... :))
> Гы. Там 640x480x256 colors, плоский 2D, так что это даже с VESA работает... :))Системные требования (с картона):
Windows 98/95/NT4.0
Pentium 90+
16MB RAM
80 MB HDD
4x CDROM
SVGA video card (DirectX compatible)Системные требования из мана:
Video: Starcraft requires a Local-bus SVGA video card that supports DirectDraw®. You
must have DirectX® 2.0 or better installed on your system to play the game (DirectX 5.0 is
included on the Starcraft CD.)
Ну так он реально работал на чем попало, чисто 2-мерная игруха в изометрической проекции. Однако отрисовано здорово - и 3D такие аккуратные, попиксельно выверенные спрайты нифига не может даже сейчас.
> AGP-карточекЭто 2005 год - сурово...
У меня оно до 2010 года не дожило.
> У меня оно до 2010 года не дожило.У меня с десяток в подсобке валяются рабочих. Для старых компов, если встройка сдохла бывает нужны.
>> У меня оно до 2010 года не дожило.
> У меня с десяток в подсобке валяются рабочих. Для старых компов, если
> встройка сдохла бывает нужны.У меня где-то 5 штук GeForce 2/4 MX на 32/64 Мб
За многие годы не видел НИ ОДНОЙ дохлой встройки.
Зато трупиков дискреток - вагон и маленькая тележка.
> За многие годы не видел НИ ОДНОЙ дохлой встройки.
> Зато трупиков дискреток - вагон и маленькая тележка.Трупиков тоже есть и иногда их даже удаётся реанимировать.
Со встройками - есть у меня таких несколько: на интеграте не заводится, писк BIOS - нет видео, вставляешь внешку - заводится. Выяснять что ему надо - пустая трата времени, проще старую внешку воткнуть и нехай себе пашет.
NVIDIAR GeForce 6150 передает тебе "пламенный" привет
> За многие годы не видел НИ ОДНОЙ дохлой встройки.А что ты хочешь увидеть? Это надо дохлый проц или чипсет искать. И что характерно - их есть. Зайди в любую гарантийку.
> Зато трупиков дискреток - вагон и маленькая тележка.
Трупиков мамок, процов и чипсетов в любой гарантийке не меньше.
Там какой-то совсем отстой был с кулерами тотальный.
Просто ужас вот эти маленькие и на больших оборотах.
Я заменил кулер на нормальный, и оно глючить стало...
> Я заменил кулер на нормальный, и оно глючить стало...Может быть, производительности "нормального" кулера не хватило или он плохо продувал? ;)
Вырядли. Конструкция намного лучше той фигни что была.
Скорее всего что-то при монтаже-демонтаже что-то передёрнул на плате.
>> AGP-карточек
> Это 2005 год - сурово...
> У меня оно до 2010 года не дожило.У меня 7600GT AGP-шная, вставленная в AGP 4x разъём. Вроде топовой является 7800GS, но я слышал, что были даже 7900. А так я хочу 3850 или 4670 от ATi, чтобы видео в браузере аппаратно декодировалось.
Даже 7950gt были, а вот двуголовые 7950gx2 уже только на pciex.
А на каком металлоломе ты умудрился 4х откопать???
> Даже 7950gt были, а вот двуголовые 7950gx2 уже только на pciex.
> А на каком металлоломе ты умудрился 4х откопать???Мой старенький комп из 2000 года. Пень 3 на ядре Tualatin. Материнка на чипе VIA Appolo 133. Тут есть один интересный баг: видеокарточки NVIDIA работают только на скорости AGP 2x. А так как видеокарточки AGP 8x имеют обратную совместимость только с AGP 4x, но не с AGP 2x, то на своей GeForce 7 я имел красивые артефакты в 3D. И не мог понять, в чём дело, пока не увидел AGP 2x в nvidia-settings.
В readme к линуксовому драйверу пишут, что конкретно на этом чипе на материнке есть баг, если использовать AGP 4x, поэтому начиная с драйвера 30.xx (2001 год) принудительно включается AGP 2x. Можно принудительно включить всё обратно специальным параметром, но на свой страх и риск. Я включил. Багов не наблюдаю.
Под виндой починилось установкой драйвера VIA 4in1 в режиме Turbo Mode вместо Standard Mode, а в линуксе опцией для драйвера nvidia.
Они вообще этот драйвер разрабатывают или забили? На вики уже пару лет практически 0 изменений.
Какой из драйверов? Так-то - см. Фороникс - всё время что-то делают, но в основном, понятно, для современных карт
Да хз, смотрю в таблице RadeonFeature, там в истории изменений за 2019 год всего 8 записей - и те уровня примечаний. За 2018 - и того меньше. При том что сама таблица еще совсем даже не зеленая.
Не поддержку AGP карточек, а поддержку режима AGP GART. Сами карты будут работать, но в режиме PCI GART. Называют простую причину - код уже 10 лет никто не поддерживает и он довольно специфичный и сильно завязан на х86 (в POWER архитектуре выключен давно из-за багов).
> Не поддержку AGP карточек, а поддержку режима AGP GART.Футынафиг, зенитар чамп^W сказочный талпайоп, как всегда нагнал!
> Не поддержку AGP карточек, а поддержку режима AGP GART. Сами карты будут
> работать, но в режиме PCI GART. Называют простую причину - код
> уже 10 лет никто не поддерживает и он довольно специфичный и
> сильно завязан на х86 (в POWER архитектуре выключен давно из-за багов).Извините, я непреднамеренно.
> поддержку AGP-карточек.Чего они там удалить решили? И какие именно чипы? oO
> Чего они там удалить решили? И какие именно чипы? oOНикакие. Зенитар попутал, это они поддержку странноватой штуки в виде AGP GART удалить собрались, всего лишь. На поддержку _чипов_ драйвером это не влияет.
>виртуальный GPU Virgil3D для QEMU/KVMКто использовал это, расскажите что да как.
а что конкретно интересует? Работает он быстрее всех остальных доступных вариантов. Можешь даже попробовать quake3 запустить, может даже выдаст 40-50 кадров вместо 5-15 на qxl.
Даже быстрее проброса?
нет, не быстрее проброса, т.к. невозможно обогнать прямой доступ к железу. Хотя с последнего раза, когда я пытался сделать подобие бенчмарка все стало гораздо лучше
хост: FPS 6.8, Min FPS 4.0, Max FPS 14.9, Score 170
виртуалка: FPS 5.5, Min FPS 4.0, Max FPS 12.7, Score 153
бенчмарк unigine heaven в настройках экстрим на ноутбучной встройке vega10
Спасибо за информацию.
На локальном железе работает хорошо и быстро. Если нужно лезть на ВМ, которая доступна только по сети (включаем опцию egl_headless), все совсем не радужно, артефакты и всякая полосная фигня.
Оно же принципиально локальное? По сети можно гнать лишь сжатое видео, соответственно задержки и трафик. Headless насколько я понимаю это когда на ноде можно рисовать не выводя на экран (для opengl нужны запущенные иксы, а тут можно без них). То же самое было с cuda и opencl, без локально запущенных иксов не работало.
> Оно же принципиально локальное? По сети можно гнать лишь сжатое видео, соответственно
> задержки и трафик.//оффтоп
а чем можно гонять изображение с системника (linux, или win если нет иных вариантов) на ноут (linux) - хочется играть на системнике, но на ноутбучном экране?
и через какой провод это делать - ethernet/wifi/usb3/... ?
Я гонял через spice, но оно даже локально и без экономии трафика лагало. VNC у меня тоже лагал. Ну от лагов ввода никуда не деться в принципе. А вообще nvidia shadowplay вполне ничего, просто запускаешь и оно работает и не тормозит, никакой мороки. Удобно. Надо только порты на роутере пробросить/открыть.
> А вообще nvidia shadowplay вполне ничего, просто
> запускаешь и оно работает и не тормозит, никакой мороки. Удобно. Надо
> только порты на роутере пробросить/открыть.на ноуте нет нвидии, оно вроде требует видекарту нвидии на обоих сторонах?
Нет, только на передающей. Можно в браузере с любого девайса подключаться. Просто скидываешь ссылку и открываешь в браузере, да. Больше я не знаю нетормозных способов расшарить игрушку, нужна видеокарта с кодирующим сопроцессором. На игре никак не сказывается, может кодировать 4к в 60фпс в реалтайме (может уже больше). Управление тоже пробрасывается.
https://www.spice-space.org/spice-user-manual.html#virgl
иногда глючит черными окнами в vm.
>> В Vulkan драйвер RADV добавлен патч за счёт оптимизации работы с памятью увеличивающий производительность игр Id Tech на системах с APU AMD.О, хорошо. Тут монитор на более развесистый сменил (2,5К) - в Думе 2016 ФПС несколько попадал :).
> в Думе 2016 ФПСПрочитал. Долго думал причём тут Дума и где там в 2016 ФПС, пока догнал что речь про DOOM
> работающая по аналогии с DRI_PRIME для OpenGL. Для выбора активного драйвера и GPU предусмотрена переменная окружения MESA_VK_DEVICE_SELECT (если не установлена используется DRI_PRIME)теперь если я ставлю DRI_PRIME=1 вулкан тоже будет юзать дискретку?
а раньше какая карта вулканом использовалась?
Да, теперь DRI_PRIME будет учитываться вулканом. До этого игры/движки без поддержки multi GPU просто хватали первый VkPhysicalDevice из списка. Сейчас тоже в принципе так, но DRI_PRIME будет влиять на то, какая карта будет перечислена первой.
Mesa - это очень странный проект. С каждым выпуском тонны изменений, постоянно добавляются новые расширения, разработка идет в поте лица. Но где люди, которые все это используют? Среднестатистическому линуксоиду новые релизы не дают ничего, можно пользоваться релизами пятилетней давности, не ощущая никакой разницы.
Я пользуясь?
Какие-то проблемы с этим?
Если про отображение рабочего стола то да, я пять лет назад начал пользоваться открытыми дарвами и проблем с десктопом не было, а если игры запускать то нет, когда играл нужно было обновлять mesa чтоб очередная игрушка таки завелась.
> Но где люди, которые все это используют?Ну, например здесь. Или допустим на Phoronix. Этого недостаточно?
> можно пользоваться релизами пятилетней давности, не ощущая никакой разницы.
...пока видеокарту свежую не купишь, например, или свежую игру с навороченной графикой не поюзаешь, особенно c vulkan-ом.
Там возможно осталась проблема с nouveau + blender 2.79 (окно с настройками артефачит).Я добавляю такой хак, после консультации и git bisect:
cat VBO_flush_hack.diff
diff --git a/src/mesa/vbo/vbo_exec_draw.c b/src/mesa/vbo/vbo_exec_draw.c
index 54ee7af86f6..0d309096b22 100644
--- a/src/mesa/vbo/vbo_exec_draw.c
+++ b/src/mesa/vbo/vbo_exec_draw.c
@@ -202,9 +202,14 @@ vbo_exec_vtx_map(struct vbo_exec_context *exec)
* Only the persistent mapping can do that, because the non-persistent
* mapping uses flags that are incompatible with GL_MAP_READ_BIT.
*/
- accessRange |= GL_MAP_PERSISTENT_BIT |
- GL_MAP_COHERENT_BIT |
- GL_MAP_READ_BIT;
+ accessRange |= /* GL_MAP_PERSISTENT_BIT |
+ GL_MAP_COHERENT_BIT | */
+ GL_MAP_UNSYNCHRONIZED_BIT |
+ GL_MAP_INVALIDATE_RANGE_BIT |
+ GL_MAP_WRITE_BIT |
+ MESA_MAP_NOWAIT_BIT |
+ GL_MAP_FLUSH_EXPLICIT_BIT;
+ //GL_MAP_READ_BIT;
} else {
accessRange |= GL_MAP_INVALIDATE_RANGE_BIT |
GL_MAP_FLUSH_EXPLICIT_BIT |
А этот хак в MESA что, не берут?
Была надежда, что один из разработчиков успеет найти корень проблемы. Не успел ...
Пофикшено в git в самом драйвере, в след. стабильный выпуск тоже должно попасть.https://cgit.freedesktop.org/mesa/mesa/commit/?id=6e1c47b98d...
nouveau: allow invalidating coherent/persistent buffer backings
Написано AMD Radeon HD 2000-6000, а в коде >=CHIP_CEDAR.