На выставке CES 2019 NVIDIA
объявила (https://www.anandtech.com/show/13797/nvidia-to-support-vesa-...) о поддержке технологии FreeSync/VESA Adaptive-Sync, которая позволяет видеокарте менять частоту обновления монитора с тем, чтобы обеспечить плавность и отсутствие рваного изображения во время игр. Вероятно, катализатором для этого решения явилось то, что на рынке число моделей мониторов с технологией FreeSync превышает модели с G-Sync практически на порядок.
Официально заявлено о поддержке всего дюжины моделей, но NVIDIA разрешит включать FreeSync вручную для всех мониторов без исключения. FreeSync на NVIDIA будет работать только для видеокарт поколения Pascal или выше (Volta, Turing).Драйвер для Windows с поддержкой технологии выйдет через неделю - о драйвере для Linux пока ничего не сообщается, однако, учитывая, что G-Sync поддерживается и в Linux, то в нём можно ожидать поддержку и FreeSync.
До сих пор неизвестно требует ли поддержка FreeSync со стороны NVIDIA соединение по порту DisplayPort или HDMI, или будут работать оба.URL: https://www.anandtech.com/show/13797/nvidia-to-support-vesa-...
Новость: https://www.opennet.me/opennews/art.shtml?num=49913
Вот это круто. Пошёл смотреть мониторы.
То самое чувство, когда монитор с freesync, а видеокарта 1080ti - просто праздник какой-то!
Ура, это мой дешёвый 75гц фрисинк монитор сможет работать в игрунях с 1070
А что дает 75 Гц? Я слышал для глаз хорошо и 60 Гц.
Для ЭЛТ мониторов чем выше частота обновления, тем меньше мерцания и утомления для глаза. У ЖК картинка "статичная", то есть меняется лишь при изменении видеобуфера, так что в их случае "частота обновления" может быть вообще лишней.На 75Гц эмуляторы ТВ-приставок выдают дёрганную картинку, а на 60 (если эмулируется вариант с NTSC) - плавную.
Это так в теории, а на практике точно так же мерцает. Посмотрите любое видео на юбтубе, где в кадре жк-монитор - увидите старые добры бегущие полосы.
Это мерцание светодиодной подсветки. Обновление цвета пикселей с ней не связано, это не аналог ЭЛТ-развёртки.
Мерцает - это да. Но обновление частоты кадров с большей частотой, если это опзволяют точки, в любом случае вышлядит лучше и меньше заставляет мозг заниматься интерполяцией.
На глаза перестаёт влиять частота от 120Гц.
Осталось только уточнить "частота чего". :) В случае LCD "влияет на глаза" частота ШИМ-модуляции подсветки, а не частота кадров...
А до этого говорили 60, потом 90 и т.д. У каждого зрение свое и "средняя температура по палате" ни разу не показатель.
Оно вообще не имеет отношения к глазам. Фри/г-синк устраняет разрывы в обновлении кадров. А более высокая часта обновления, при условии что видео карта столько может, даёт больше информации за единицу времени, что делает анимацию более плавной. После работы на 100+ фпс 60 кажется слайдшоу. 75 мало, но лучше, чем 60.
FreeSync не о том. Сколько видеокарта даёт в игре FPS, столько же выдаёт обновлений матрицы монитор - этим достигается точность и неразрывность кадров, монитор подстраивает свою частоту под фреймрейт игры (возможности растеризации видеокарты).
то чувство когда у тебя 970 =(
То чувство когда у тебя 500. :\
То чувство когда у тебя 250
> То чувство когда... последнюю дискретную видюху от нВидиа (GeForce4 MX440?) выбросил лет 8 назад. Никаких чувств.
нуилох
То чувство, когда у тебя AMD
То чувство, когда у тебя 49.5
Что там из Dell с G-Sync есть хорошего?
Ребят, поясните за Gsync/FreeSync. Это окончательная победа над тирингом в любой ОС (linux/windows)? Они это ГАРАНТИРУЮТ? Потому что за 20 лет у меня был десяток компов, и наверно в 8 из 10 у меня точно был тиринг. И порой неубиваемый. А когда убиваемый, то ценой жесткого проседания фпс. И мне это окончательно надоело. Прочитал что они решили избавиться от проблемы на железном уровне. Мониторы с Gsync/FreeSync стоят в 3 раза дороже. Я так понимаю, если я словлю на таком мониторе тиринг - то смогу без вопросов засунуть этот монитор в зaд тому у кого купил?
+100500, я лично вообще не понял почему я должен переплачивать за то, чего и так не должно быть (это я про тиринг).
А чо такое тиринг? Зарплата вроде растёт, письк стоит, баб дают....
> Я так понимаю, если я словлю на таком мониторе тиринг - то смогу без вопросов засунуть этот монитор в зaд тому у кого купил?Нет конечно. Нужна поддержка от софта.
Вот никто не может помешать криво написать игру с тирингом. Ни этот монитор, ни любая ОС, ни любой композитор, ни любая ДЕ.
Свобода 🙂
Поддержка от софта... Т.е. миллионы игр, которые вышло ДО gsync как тирили так и будут?
Всё зависит от того, как эти игры написаны, да. Если в движке самой игры сделано так, что не до конца отрисованный буфер отправляется на отрисовку — хоть четверной буфер сделай, хоть фрисинк, хоть вейландом обмажься - всё равно будет тиринг.
Дело в моменте, когда отправляется полностью отрисованный буфер. Он должен укладываться во время "обратного хода луча" (упс, у нас ЖК монитор).
С оговорками, все обстоит именно так!
> Это окончательная победа над тирингом в любой ОС (linux/windows)?Нет. Это синхронизация частоты обновления монитора с FPS внутри игры. К тирингу отношение имеет, конечно, как и простая синхронизация обновления, но это не главная цель.
> Мониторы с Gsync/FreeSync стоят в 3 раза дороже.
Да не особо.
C Gsync - +100$ примерно (там отдельная плата примерно столько стоит), с FreeSync - примерно нисколько не дороже. Мой 29 дюймов 21:9 монитор вообще 12 тыс стоит - и в нём есть FreeSync и 75Гц.
У меня на Спектруме не было тиринга. Но это было более 20 лет назад. :)
Ожидаемо. Подоили свой проприетарный синк пока доилось, они были первыми все же со своим gsync.
> они были первыми все же со своим gsync.если смог "успеть первым" то ещё не значит что ты сделал конфетку а не говнецо.
манагеры во-чтобы-то-ни-стало орущие что самое главное это зайти на рынок первыми -- могут засунуть себе флаг в любое свое место и бегать с ним по сцене :-)
Бывают, конечно, исключения, но практика показала, кто первый встал - того и тапки. CUDA до сих пор живее, в отличие от OpenCL.
С CUDA там другой момент, ИМХО, с ним гораздо удобнее работать, т.к. там код ядра (GPU) и обычный (CPU) находятся в одном файле и компилируется он сразу, а не как шейдеры в OpenCL.
Ну и CUDA курируется Nvidia, а OpenCL кем? К кому обращаться за комерческой помощью и прочим?
А, ну и еще момент, AMD'шные видюхи для GPGPU так и не запилили нормально, а зачем Nvidia лезть в OCL, если у них CUDA есть?
>там код ядра (GPU) и обычный (CPU) находятся в одном файле и компилируется он сразу, а не как шейдеры в OpenCL.Работать удобнее не из-за этого, а из-за того, что код для по компиляции кода и настройки рантайма создаёт сам компилятор, а в opencl это вручную.
Но опять же дело не в этом. Дело в
* более высокой производительности карт nvidia на куде чем AMD на OpenCL, поэтому те, кто хочет получить максимум производительности, брали нвидию+куду;
* нвидия написала проприетарные библиотеки для нейросетей и обработки сигнальв, хардкорно оптимизированные специалистами нвидии под архитектуру их карт.В результате качество/цена гораздо выше у их карт. А дроп старых карт проприетарными драйверами - это мелочь, исследователи нейросетей (за свёт работодателя) и майнеры эти карты меняют гораздо быстрее, чем нвидия их дропает.
Дык о том и речь, что зачем Nvidia еще на OCL тратить время, деньги и ресурсы, когда у них итак свое есть.
P.S. Про удобство это я так.> А дроп старых карт проприетарными драйверами - это мелочь, исследователи нейросетей (за свёт работодателя) и майнеры эти карты меняют гораздо быстрее, чем нвидия их дропает.
Не хнаю что там с "дропом", но ATI поддержку моей HD5400 кинула раньше, чем Nvidia GTX8600 (которую потом еще какое-то время в legacy варианте драйвера поддерживала). Да и то, с ATI'шниками вечно какие-то проблемы были, что драйвера либо часто не собирались (новое ядро, компилятор, библиотека, Nvidia быстрее реагировала), либо собирались но в рантайме что-то вылезало.
Единственный бонус у ATI, лично для меня, это встроенный SlackBuild (скрипт сборки пакета для Slackware) прям в *.sh.
> CUDA курируется Nvidia, а OpenCL кем? К кому обращаться за комерческой помощью и прочим?А OpenCL курируется Khronos Group. Соответственно, за помощью и прочим обращаться к ним, что в данном случае эквивалентно "на деревню дедушке". :)
А за юридической помощью обращаться в госдумму которая написала закон, а не к юристу?
Khronos лишь создали спецификацию, но ни разу не реализацию и уж тем более не видеокарту.
Там проблема не в тапках, распространенный opencl 1.2
ужасный форум, как тут кнопку править вытащить :(
Распространенная версия opencl 1.2 не поддерживает ООП.
> CUDA до сих пор живеетока не работает нормально
> Бывают, конечно, исключения, но практика показала, кто первый встал - того и тапки.практика показывает что кто первым встал тот и получил известность..
но качество почти всегда -- у второго (или у третьего). клиенты первого обычно жрут кактусы
> качество почти всегда -- у второго (или у третьего)Потому что первые по определению не могут учитывать ошибки предшественников, им не на кого опираться и оглядываться.
> клиенты первого обычно жрут кактусы
IMHO, в контексте "CUDA vs. OpenCL" с этим не так всё просто — у первого простота/удобство использования и наличие готовых библиотек, у второго кросс-вендорность.
С G-Sync была другая проблема, она была дороже, т.к. аппаратная. FreeSync програмный.
P.S. Хотя у той-же Nvidia есть FastSync, это что-то вроде тройной буферизации из OpenGL (и кстати оно и не требуется для OGL, так как уже тыщу лет существует там).
G-Sync такой же аппаратный как FreeSync.
Они все одинаково програмные. Просто G-Sync програмная часть распространяется с своей платой. В случае с FreeSync это как соовтествовать спецификации. А как ты этого добился твоё дело.
У обоих вариантов есть как плюсы так и минусы. GSync задранные цены и налёт илитарности. В FreeSync проблемы из-за недостаточной производительности железа монитора или какие либо специяичные баги в имплементации.
Лучше всего сейчас выглядит FreeSync 2 который начал требовать от производителей поддерживать LFC.
он технически посасывал..
Главное что решал проблемы геймеров - тиринга не было.
Я был удивлён, узнав, как давно существует G-Sync. Я открыл ChangeLog проприетарного драйвера, там изменения с 2000 года. G-Sync упоминается 7 апреля 2006 в ChangeLog драйвера 1.0-8756: "Improved G-Sync support". 22 мая 2006, 1.0-8762: "Fixed multiple issues with combinations of Stereo, SLI, FrameRendering and G-Sync"Это что же, ещё для DVI-мониторов был G-Sync? Потому что никакого HDMI я в те годы не помню (впервые увидел на GeForce 8, вышедшем позднее). А услышал в G-Sync году в 2013, причём думал что новинка
> Это что же, ещё для DVI-мониторов был G-Sync? Потому что никакого HDMI я в те годы не помнюА я помню. HDMI появился в 2002-м, более-менее распространённым стал в 2004-м.
А hdmi щас так же крут? Или dvi победило? Для игр/видео, например.
DisplayPort
Электрически они почти идентичны (в HDMI добавлен CEC), просто разъём разный.
Для игр только displayport. На HDMI всегда присутствует задержка из-за шифрования контента!
> Я был удивлён, узнав, как давно существует G-Sync. Я открыл ChangeLog проприетарного
> драйвера, там изменения с 2000 года. G-Sync упоминается 7 апреля 2006
> в ChangeLog драйвера 1.0-8756: "Improved G-Sync support". 22 мая 2006, 1.0-8762:
> "Fixed multiple issues with combinations of Stereo, SLI, FrameRendering and G-Sync"(тут надо смайлик с головой, бьющейся об стену. К сожалению, на opennet нет смайликов...)
Блин, *Quadro G-Sync* там поддержка была. Это такая плата, чтобы несколько карт заставить работать вместе над рендерингом одного кадра, синхронизирующая их работу. Аналог SLI для профессиональных карт Quadro: http://international.download.nvidia.com/quadro/product-lite...
А тот G-Sync, о котором мы говорим, был анонсирован в 2013 году (поддержка в линуксе появилась через пару лет после этого). Может решили сэкономить на зарегистрированном торговом знаке, не знаю.А в HDMI поддержки (нужного) G-Sync нет. В стандарте 2.1 появился VRR, если брать устройства с ним, то будет работать (теперь). G-sync мониторы если и имеют HDMI вход, то G-Sync при таком подключении по идее просто не работает.
Посмотрите распиновку переходника DVI - HDMI
Он намекал на DisplayPort, а не DVI.
Всё правильно я сказал - DVI. Потому что в 2006 не было никакого DisplayPort
Он хоть нормально работал? тиринга вообще нет?
Говорят нормально в большинстве игр...
Опенсорс - это сила, с которой нельзя не считаться. Поняли что блобы продвигать не получится, чтобы завоевать рынок надо открывать технологии. Это тебе не лихие 90е, брат.
Открытый стандарт опять победил.
Открытый стандарт победил
FreeSync оказался сильней...
Последний титан остыл
Последний геймер устал...
Вообще, нвидиа - один из лучших друзей опенсорса, я бы удивился, если бы в ней не было движений в сторону открытых стандартов.
Это да... Ее видеодрайвера для линя просто потрясающие.
Как вспомню, аж трясет :)P.S. (Не)счастливый обладатель паскаля на одной из своих машин. Благо, машинка для игрушек, поэтому линь там только в качестве запасной операционки.
Открывает помаленьку. Недавно вот физикс, потом глядишь и дрова целиком откроет)
Драйвера не откроют.Это не сделала ни Intel, ни AMD - их open source драйвера для Linux написаны практически с нуля.
IP, понимаешь.
// b.
> Драйвера не откроют.Где-то читал (честно, не помню, толи здесь, толи фороникс), что они бы и хотели сделать, как AMD, но большое количество лицензированного кода не даёт, но они работают над этим.
И, ИМХО вполне возможно в корне неправильное, как мне кажется у них некоторые Ti и не-Ti отличаются только на уровне драйвера, который по id-карты что-то включает/не включает. Ест-но, что открывать в таком случае драйвер - плохая затея.
Ну не скажи. Имею противоположный опыт. Nvidia GTX 560 Ti. Ведьмак 2 и куча других ААА-игр просто жестко глючили на AMD, и вообще не заводились на интеле. Таким образом единственным игровым вариантом под линукс стала Nvidia.
Ну, меня игры под линь особо не волнуют. Я уже счастлив, если хотя бы что-нибудь примитивное типа окошка браузера с картинками/ютубом нормально отображается, RDP с обновлением окошек не тормозит и всё такое.Так вот, с опенсорсными дровами от AMD/Intel явных проблем нет последние лет 7-10.Всё с полпинка ставится, обновляется, работает... (ну, на моем железе и в тех программах, что мне актуальны).
Проприетарные драйвера от AMD в этом смысле (когда я их последний раз пытался использовать) - были полным навозом (вечные проблемы с обновлениями и поддержкой новых ядер, иксов и чего_там_еще).
Когда собирал отдельную игровую машинку, меня таки уговорили на Паскаль (впрочем, альтернатив от amd на тот момент особо не наблюдалось).
Под винду у NV твердое "хорошо". Почему не "отлично"? Версия драйвера N - всё работает, драйвер N+1 - часть игр падает на ровном месте, драйвер N+2 - опять все хорошо.
Под линь - опенсорсный нуво вообще не вариант, ибо реклокинг для паскалей(или начиная с его предшественника?) и выше не умеет. На динамично меняющихся картинках периодически "замерзает" или портит изображение (похоже, частоты по умолчанию в биосе видюхи слишком низкие).
Проприетарные драйвера от NV - тоже г-но полное. Раз в пару-тройку месяцев тупо перестают работать - то им новое ядро не подходит, то версия Xorg не нравится, то с вейландом пытаются взаимодействовать не так, как все остальные. А дальше начинается квест - найди и поставь новую версию дров так, чтобы оно заработало. Иногда тупо приходится ждать, далеко не всегда NV поспевает с дровами под новые ядра/прочий софт. Сидеть на древних ядрах для меня не вариант, да и нет возможности (дистр без lts-ядер).
Хорошо, что на этой машине винда - главная ОС, ибо для игрулек. Если бы это была моя главная машина под линь, пришлось бы тупо менять видюху на что-то от AMD.
Кровоточащие углы + блоб, ты умеешь варить линукс.
Извини, не смог расшифровать :)
Тут проблема не в драйверах, а человеке который вечно куда-то спешит.
Соглашусь. Именно поэтому я за те драйвера, которые просто работают, не требуя ручного вмешательства, обновившись автоматом по крону.P.S. Когда комп один, за ним еще можно следить в ручном режиме, но когда на твоем попечении их десятки (семейная географически распределенная сетка с кучей физических и виртуальных машин), то хочется таки не тратить свое время зря на капризы проприетарных драйверов от какого-либо производителя.
Вы меня огорчаете... не замечаете явного и самого важного - это лишь ваши капризы!
7-10 лет никаких проблем нет? Жуткий законченный бред.Более менее до вменяемого состояния Intel драйвера дошли 3 года назад, AMD год-полтора - и всё равно есть пачка диких проблем с совместимостью/функционированием с/под разным железом.
// b.
На моем железе (AMD x19xx/HD4xxx/HD6xxx /встройки Intel Haswell)существенных проблем не было и нет в тех программах, что использую я. На данный момент я вообще не могу вспомнить каких-либо претензий к этому железу, кроме того, что оно не самое свежее, но так мне и не для игрулек. :)Если с вашим железом/дистрибутивом что-то не так - пишите репорты или патчи, если знаний хватает. Неотрепорченная проблема проблемой не является, ибо кроме вас о ней никто не в курсе.
как толсто.
За это надо выпить, ящитаю! Открыл ящик лемонада. ;-)
НВидиа сделает ему EEE.
Ну не знаю, репутация все-таки важнее. Потом же не отмоются. M$ до сих пор вот корпорация зла.
Пусть хоть 100500 открытых стандартов поддерживает, какой в этом смысл если дрова проприетарные?
Хорошая попытка НВидиа, но нет не верю.
Мда, теряют хватку мастадонты айтишного маразма: Япл частично отказалась от своих идеалов,usb-c поди завезут в новый айфон. А Нвидиа то физику откроет, то наконец-то фрисинку в дрова завозит. Недалек тот час как придётся от кожанки отказаться. пс.Надеюсь это не вызовит роста цен на free sync мониторы.
вызовет
Не стоит быть настолько категоричным.У меня обычный (IPS/24") монитор, GTX 1060, и эта новость мне побоку.
Tearing не видел ни разу, хотя играю в игры с FPS от 20 (The Division/Hunt Showdown) до 300 (CS:GO).
Хочется что-то типа 2560x1440 >32" (flicker free/10bit/DP/HDMI 2.0/USB 3.0 hub/@75Hz) и это больно дорого (>30K рублей).
// b.
> Tearing не видел ни разу, хотя играю в игры с FPS от 20 (The Division/Hunt Showdown) до 300 (CS:GO).Так у вас поди vsync включен. С ним тиринга не будет, но при fps рендеринга < герцовки монитора (напр. 60) может иногда ощутимо снижать fps, т.к. когда кадр готов, он лежит в буфере и ждет возможности вывода (т.е. когда пройдет 1/60 с с момента, когда монитор принял предыдущий кадр. А этот момент еще и не синхронизирован с рендерингом), и еще один кадр делать в это время смысла нет - видяха простаивает. Ну и сам факт ожидания буферизированного кадра увеличивает лаг (физика была рассчитана еще до начала рендеринга того кадра, а выведем пользователю мы его еще только когда монитор будет готов отображать следующий кадр).
g-sync/freesync/VRR это механизм, чтобы решить эти проблемы - и падения fps, и лага из-за того, что отрендеренный кадр ждет возможности вывода. Сделали кадр - отправляем его на монитор, и уже рендерим следующий. Лепота.
> и еще один кадр делать в это время смысла нет - видяха простаиваетНе верно.
>Япл частично отказалась от своих идеалов,usb-c поди завезут в новый айфонМожет, и завезут. Все дело-то в том, что симметричный Lightning на айфонах появился году в 2012ом (на iPhone 5), а USB-C в андроидофонах стали массово ставить ну может два года назад от силы. Так что Ябблу был определенный резон садиться на Lightning и держаться за него.
В теле новости ни разу не упоминают AMD, как будто это не их изначально технология.
https://ru.wikipedia.org/wiki/AMD_FreeSync
> В теле новости ни разу не упоминают AMD, как будто это не
> их изначально технология.
> https://ru.wikipedia.org/wiki/AMD_FreeSyncЭээ вообще-то не совсем. Изначально это технология Adaptive-Sync в рамках стандарта eDP 1.0, существует еще с 2009 года. Не готов сказать, кто там ее разрабатывал, но вряд ли AMD. Сама по себе технология позволяет иметь изменяемую частоту обновления (VRR). А после выхода G-Sync, в 2014 году AMD предложила Freesync, в котором описала, как использовать Adaptive-Sync для того же, что и G-Sync: убрать влияние vsync на fps и задержки. Freesync это конкретное название того, как AMD реализовала в своих картах использование Adaptive-Sync для этих целей. А у NVidia, строго говоря, своя технология на базе того же VRR, не Freesync.
Что не отменяет того факта, что стараниями AMD по продвижению Freesync они заставили консорциум VESA добавить Adaptive-Sync из стандарта eDP и в стандарт DP 1.2, ну а потом и в HDMI 2.1 это добавили.
Как все сложно и запутанно...
На реддите пишут, что поддерживаться будут не все мониторы, а определенные, которые пройдут тесты. Из 400 моделей прошло 3%
На опеннете тоже так пишут.
Трудно быть идиотом, когда уже объявлено, что будут поддерживаться все, но неофициально.
Неофициальная поддержка от nVidia - звучит как что-то с чем-то, а по сути ничего.
Неофициальная поддержка лишь означает что я не смогу жаловаться и чего-то требовать если будут проблемы (ибо шут его знает какие недокументированные особенности в монитор напихали), но ни разу не означает что работать не будет.
Чувак, ты читаешь по диагонали, а надо слева направо.
Проверил на своем мониторе LG 24UD58, freesync работает
Молодцы, осталось открыть драйвера для полного счастья.
Люди переплачивали по 100 баксов за мониторы с G-Sync, а теперь оказывается что зря?
Теперь они счастливы, познав своё место в Мире.
Воу 100 баксов.
У меня монитор не поддерживает ни FreeSync, ни G-Sync. Но частоту монитора драйвер Nvidia менять может, я проверял, устанавливая любые нестандартные значения и они применялись, в пределах разумного, конечно. Вопрос, с теоретической точки зрения, что мешает драйверу синхронизировать FPS и частоту моего монитора?
У меня тиринга нет и так. Нужно использовать DE или WM, в котором нет не выключаемого композитинга. Для UMS-драйверов выполнить:compton --vsync opengl
Для KMS-драйверов выполнить:
compton --vsync drm
Подробнее в --help. Всё, тиринга нет.
В драйвере NVIDIA выключите принудительный VSync, потому что композитный менеджер применяет его и так. Я заметил, что эффекты суммируются, и 60 FPS превращаются в 30. А с опенсорсными драйверами, хоть и тоже VSync включается по умолчанию для всех приложений, такого эффекта не наблюдается
Если ноут, то с Bumblebee применять решение для Intel. Если PRIME, то включить PRIME Syncronization. С ним даже не надо композитного менеджера - тиринга не будет и так.
Мешает отсутсвие возможности передать информацию о частоте "развёртки" в прямом виде, монитор вычисляет её из периода синхроимпульсов (например, пропустит 10 кадров и только потом выведет картинку).
Да ничего. Да и незачем. Вот синхронизировать обновление конкретного окна ... :)
Стандарты и без nVidia существуют и развиваются, это факт. Просто в nVidia смирились.
Проприетарщик бросил кость... Вместо открытия
Отличные новости, будет работать на ведюхак начиная от GeForce GT 1030, но её не берите это хлам для бомжей цены начинаются от 85$, лучше уже смотрите на 1050, но тоже лучше в обойти её, не тупите и поднакапите на 1060, цены начинаются от 235$, эта карточка лучшая что можно по соотношения цена качества, а всякие космос тип 1080, это развод маркетологов для мажоров, как всякие айфоны и самсунги гелекси, которые стоят в 3-4 раза дороже обычного мобильника с такими же характеристиками). Не тупите люди, не дайте себя надурить всякими маркетолагами. А хотя можете тупить, мне пох)).
открытого драйвера? а, не...показалось.
Не прошло и полувека...