Опубликованы (http://webscaws.x10.mx/?p=100) результаты повторного тестирования видеокодеков WebM и H264, при проведении которого были учтены высказанные замечания. По сравнению с первым тестом (http://www.opennet.me/opennews/art.shtml?num=29935) отмечены следующие изменения: дополнительно протестирован кодек Theora; для оценки качества использованы метрики SSIM (https://people.xiph.org/~tterribe/exp-tools/src/); кодирвщики запускались с опцией "--tune=ssim"; тесты были запущены в Ubuntu 10.10 64bit вместо Windows; было использовано видео с разрешением 512×218 вместо 320×240.
После проведения повторного теста был сделан вывод, что в целом результаты первого тестирования были справедливы: vpxenc (VP8) вполне может конкурировать с базовым режимом x264 (профиль baseline) при высоких битрейтах. При низких битрейтах (высокой скорости кодирования) x264 "baseline" опережает vpxenc по качеству. При оценке работы режима высокого качества vpxenc и x264 (профиль high), новое тестир...URL: http://webscaws.x10.mx/?p=100
Новость: http://www.opennet.me/opennews/art.shtml?num=30016
Theora - это как WMV. Только OGG появился раньше WMA, а Theora - позднее WMV, а иначе аналогия была бы полной. Использование Theora уместно там же, где уместен WMV.
VP8 - это как h264. Скоро догонит окончательно. Тогда и производительность будет на одном уровне. Интересно, MPEG скоро представят свою новую разработку, развиваемую без афиширования?
>Интересно, MPEG скоро представят свою новую разработку, развиваемую без афиширования?Наверняка с учетом текущей ситуации там каждая строчка кода будет запатентована.
Более того, они будут использовать только запатентованные буквы алфавита.
чем связаны OGG и WMA позвольте спросить?
Результаты тестирования лишь подтверждают мои наблюдения. vpx до сих пор недотягивает даже до h.264 baseline, при этом кодируя в три раза (!) дольше. Theora где-то наравне с нижними профайлами, при этом кодируя в два раза быстрее h.264, и соответственно в 6 раз быстрее vp8. Благодаря различным психовизуальным оптимизациям, Theora выгляжит предпочтительнее vp8, но хуже avc.
А ничего что h264 пилят уже много-много лет, а VP8 всего год? Причём прогресс за год в VP8 значительный и замедляться не собирается.
> а VP8 всего годVP8 можно сказать что тоже много-много лет (vp1...vp8). Это год как Google его выкупил.
У него был длительный застой в разработке, приходящийся на момент покупки и анализа кода на запатентованные алгоритмы. Плюс - скорость разработки On2 и Google+коммюнити не сравнить.
Согласен, гугл не так уж давно выпустил хром и обогнал им все браузеры, по технологиям, пр-ти, синхронизации.
А vp8 догонит h264, а потом уделает и вовсе, что бы заткнуть MPEG надолгое время.
да пусть хоть перегонит, сёравно фанбои-h264 найдут 10 причин почему их h264 такой хороший(начнут новорить про покровительство Apple и прочий бред :))
h264 такой хороший, пока да. Пусть сначала догонят, там посмотрим.
>h264 такой хороший, пока да. Пусть сначала догонят, там посмотрим.MPEG LA.
С таким минусом технические характеристики кодека должны быть минимум на порядок лучше, чтоб утверждать о превосходстве.
До этого VP8 пилили в on2 и судя по тому, что за время его открытия был сделан большой прогресс говорит о том, что в on2 им серьёзно не занимались. Скорее всего on2 считала сей кодек бесперспективным.Да и источник тестов не внушает доверия.
> Результаты тестирования лишь подтверждают мои наблюдения.
> vpx до сих пор недотягивает даже до h.264 baseline,А вы не напомните сколько *лет* уже дорабатывают x264? При том что libvpx выпустили менее года назад и отличия между тем что было и стало довольно сложно не заметить, я бы сказал. В гугл в марте как раз на работу должен прийти 1 из разработчиков ffmpeg, кстати. Да и вообше, достаточно посмотреть по коммитам чтобы понять что libvpx пиляют зверскими темпами. И асм-оптимизированные декодеры пиляют, особенно для арм :) и кодер улучшают, и еще уйма всего.
> Благодаря различным психовизуальным оптимизациям, Theora выгляжит предпочтительнее vp8
Это с хрена ли VP3 будет выглядеть предпочтительнее VP8? Покажите конкретные последовательности где картинка лучше получается, чтоли? А то в 2-проходных режимах vp8 с alt-ref кадрами начинает выглядеть довольно приличным и сильным кодеком. Во всяком случае, лично мне понравился результат - на вид получается нечто лучше простых профайлов H.264 и хуже наиболее сложных. Субъективно, ессно, ибо SSIM/PSNR конечно хорошо но глаза у меня видят все-таки вполне конкретные артефакты в конкретных сценах, а не абстрактные пузомерки в вакууме.
> А вы не напомните сколько *лет* уже дорабатывают x264?Скорее значение имеет то, что x264 разрабатывается высокопрофессиональным открытым сообществом. Здесь действительно блистает мощь опенсорса, помноженная на математические достижения, заложенные в формат изначально.
"Оппонент" же напротив долго пилился умирающей проприетарной конторкой, а сейчас над ним трудятся толпы индусов. Результат, как говорится, налицо.> Это с хрена ли VP3 будет выглядеть предпочтительнее VP8?
Вам же сотни раз объясняли, VP8 "мажет" картинку. Theora 1.1 сохраняет фактуру там где в WebM сплошное "мыло". И устранять это по ходу никто не собирается (возможно, будет нарушен формат битового потока)
поправка
т.е. "Theora 1.2" разумеется
> Скорее значение имеет то, что x264 разрабатывается высокопрофессиональным открытым сообществом.И это в том числе.
> "Оппонент" же напротив долго пилился умирающей проприетарной конторкой, а сейчас над ним
> трудятся толпы индусов. Результат, как говорится, налицо.Угу, среди этой толпы индусов - всякие там разработчики ffmpeg, почему-то финики делающие чипы и прочая. В общем когда надо - гугля умеет надирать задницы и перетягивать умных парней к себе. И им оно похоже стало надо. Они это делают. Неплохо делают, судя по логам коммитов. Индусы пишущие оптимизацию под ARM, на асме, с юзежом SIMD команд - это как минимум весьма редкое и маловероятное явление природы.
>> Это с хрена ли VP3 будет выглядеть предпочтительнее VP8?
> Вам же сотни раз объясняли, VP8 "мажет" картинку. Theora 1.1 сохраняет фактуру
> там где в WebM сплошное "мыло".Чтобы он стал мылом - должно откровенно не хватить битрейта. И если битрейта не хватает - в общем то сольется любой кодек, с теми или иными артефактами. Более или менее заметными глазу. Ну не бывает чудес в природе - если битрейта мало, значит какие-то параметры картинки при передаче придется загрубить. И всегда наступит момент когда обман станет заметен. Вопрос только в том сколько данных удастся выбросить до того как двуногие начнут замечать существенные отличия от оригинала. А мазание картинки кстати ИМХО неплохой метод сэкономить битрейт на быстро движущихся сценах, т.к. глаз там один фиг не замечает мелкие быстро движущиеся объекты из-за особенностей человеческого зрения. Ну и напуркуа бы битрейт тратить на то что никто не разглядит? Статичные сцены... вот тут я заметил что в 1-проходном режиме vpxenc может ступить и очень пессимистично занизить битрейт и засрать сцену (получив в итоге поток с здорово меньшим битрейтом чем его просили, кстати). В 2-проходном режиме он зато пунктуален как швейцарские часы и раскидывает доступный битрейт намного лучше. В этом режиме по чисто визуальному качеству мувик пожатый vp8 вполне себе порубается с мувиком пожатым базовым профайлом H.264.
> И устранять это по ходу никто не собирается (возможно, будет нарушен формат
> битового потока)C каких пор деблокинг вдруг стал багом а не фичой? Мсье поклонник теплых ламповых квадратиков эпохи ранних мпегов, когда деблокинг никто не делал т.к. не хватало CPU и вся сущность DCT преобразований над блоками просто вопиюще лезла на глаза в виде нестыковки цветов границ блоков акa "характерные мпеговские квадратики"? Не, спасибо, характерное рассыпание интенсивных сцен на разноцветные квадратики не заметит только крот, сидящий к монитору задом. Деблокинг лучше чем его отсутствие с точки зрения вырвиглазности итоговой картинки. Ну не для красоты же его придумали, правда?
>x264 (профиль high)Это только начало для достижения качества. subq=9 побольше рефреймов и т.д.
Ага, разбежались. А потом нужен проц 4 Ггц чтобы декодировать, а на некомпьютерных дивайсах вообще шансов нет?
Откуда ты такой знак вопроса взял ?)
Table: Arabic Presentations Form-A
Unicode code point: U+FF1F
character: ?
UTF-8 (hex): ef bc 9f
HTML: & #xFF1F ; (cлитно)
NAME: FULLWIDTH QUESTION MARKhttp://www.utf8-chartable.de/unicode-utf8-table.pl?start=643...
<*>
> Откуда ты такой знак вопроса взял ?)В уникоде еще и не такое бывает :). Там можно и посильнее изгальнуться.
╔════════════════════════════════════════════════════════╗
║Например, можно таблички рисовать. Почти Olschool DOS style :)
╚════════════════════════════════════════════════════════╝Правда шрифты не моноширинные, что немного не доставляет...
Это символ полной ширины из японского - там весь алфавит и спецсимволы такие есть, если стоит Canna/scim/ibus (для последних двух нужно сам движок японского поставить, обычно anthy) ctrl-space жмешь и печатаешь. !!111 ^_^ :)
Давайте про теору забудем уже. По современным представлениям это не кодек.
> Давайте про теору забудем уже. По современным представлениям это не кодек.ды просто вы уже достигли той стадии -- когда вам картинка не нужна...
..вам подавай понимаешьли графики и засечённое секундомером время :-/
одумайтесь! все эти различия в кодеках (H264/VP8/Theora/.../DivX) -- начинают быть различимы невооружённым взглядом -- лишь тогда когда ты задаёшься себе целью "найти различия в качествах изображений!"
в остальныхже случаях (когда например ты просто открываешь фильм, закодированный Теорой) -- ты просто смотришь фильм и наслаждаешься
вспомните ситуацияю 17 лет назад -- когда во всяких там компьютерных книжках писали:"а архиватор RAR сжимает аж на 10% лучше! пользуйтесь RAR!"
(этоже смешно! изза какихто 10% -- призывать людей использовать другие форматы файлов! я понимаю еслибы опережение было на 400%)
17 лет назад ситуация отличалась - стоимость 1MB диска была выше. Сейчас проблема: кто это делает быстрее и кто сохраняет картинку лучше при сопоставимом сжатии и/или затратах.
10% это между прочим целый палец из ваших десяти, ради чего вы бы им согласились пожертвовать?
нафига заморачиваться с переходом на евро-3, когда он так ничтожно лучше евро-2, а там это даже не призыв, а обязанность и за не подчинение наказание.
> "а архиватор RAR сжимает аж на 10% лучше! пользуйтесь RAR!"Ну... можно найти пример когда RAR сделает ZIP в 3 раза одной левой. Но на этот случай у нас припасен 7zip, который зачастую даже получше RAR жмет...
Я недавно тестил zip, winrar & 7-zip чисто для себя, не очень объективно, но все же. Рар меня удивил, в быстром режиме он пакует быстрее зипа раза в три, при этом оставаясь по степени сжатия где-то посередине между конкурентами. 7-zip местами жмет сильнее, если файлы хорошо сжимаемые, но отличие составляет дай б-г 5% от *исходного* размера файла, а времени расходуется в 5-10 раз больше. Если файл приходится передавать через инет многократно (png-картинка на сайте) или через тощий канал, тогда да, не жалко потратить времени, но если вы место на винте экономите - лучшим выбором будет наиболее быстрый компрессор
> чисто для себя, не очень объективно, но все жеПодозреваю, что совсем необъективно.
Зип жмётся всегда в один поток. Винрар юзает несколько потоков и тем самым распараллеливается на несколько ядер. 7зип по дефолту работает однопоточно, но можно включить вручную нужное количество потоков.
Итак, внимание, вопрос: ты это учитывал?
7-зип работал в два потока и оказывался стабильно в задах по скорости упаковки. Потом, даже если представить, что рар двухпоточный (на двухъядерном проце тестировал), а зип нет, как так вышло, что рар шустрее зипа втрое?
> винте экономите - лучшим выбором будет наиболее быстрый компрессорНу если вам главное скорость, а степень сжатия до балды - смотрите соседнюю новость про гугл и сжатие: там перечислена целая пачка скоростных алгоритмов, многие из которых могут сжимать данные на типовом десктопном или серверном проце быстрее чем типовой винч десктопа или сервера их записывает, так что еще и скорость чтения/записи винча растет нахаляву. Нормальненько так, да? :). А сама по себе экономия места на винче ради этой самой экономии при современных их объемах - выглядит довольно странным начинанием. Обычно данные жмут чтобы или ускорить что-то или уменьшить траффик, все-таки. Ну может бэкапные копии еще имеет смысл жать.
А существенная разница сжатия с зипом возможна когда есть например file1 на мег и file2 на мег. Пусть они отличаются аж в 10 байтах. Zlib/zip/whoever else с их inflate и куцым словариком на 32Кб просто не увидят что данные файлов повторяются. Не лезет столько данных в их куцый 32Кб склероз (если забыть о том что zip жмет файлы независимо и вообще не может заметить их сходство и вспомнить о gzip и подобных). Поэтому выходной поток будет содержать в себе 2 сжатые версии почти одного и того же :). А теперь пускаем RAR или 7zip или кого там еще умеющего solid сжатие и большой словарь. С словарем более мегабайта. А вот они вполне себе поймают повторяемость данных и закодируют большую часть информации второго файла ссылками на куски первого. В выходном потоке будет сжатая копия 1го файла и немного ссылок позволяющих реконструировать и второй файл из этого. В итоге практически на ровном месте выигрыш в сжатии минимум в 2 раза. Скорее всего даже больше, т.к. меговый словарь скорее всего поймает больше совпадений чем 32Кб словарь еще и в рамках первой копии файла до кучи :))).Кстати по этой причине разумно пытаться сделать так чтобы похожие файлы попали рядом в входном потоке (особо умные типа RAR пытаются это делать сами, с переменным успехом - иногда они протупляют, т.к. то что file1.asd и file1.bak это одно и то же - архиверу нифига не очевидно в отличие от вас :D).
Кончайте бредить, замыливание теоры видно невооружённым глазом. Кроме того есть низкие битрейты, где в теоре вообще ничего не разобрать. Какой вы вообще видите смысл в технологически более убогом кодеке? Название нравится?
часто о VP8 и Theora пишут. Это здорово, конечно. И все такое. Но.
"Если человеку один раз сказать, что он дурак - не поверит. Зато с нескольких сот раз поверит." Примерно.
Также и здесь. Скажешь один раз - не поверят, а вот много раз (какие-то результаты тестирования постоянно показывать) - рано или поздно поверят, что качество картинки лучше, чем H264. Да при любых оптимизациях качество картинки WebM/Theora хуже того же H264. О чем еще написать? Что здесь добавить? Где быстрее кодирование происходит? Да на многоядерном CPU быстрее. И независимо от всех этих описаний и прочей ерундистики у меня качество картинки WebM хуже, нежели H264. Я рад, что есть свободный, или бесплатный WebM, который я использую, но может хватит ерундой заниматься? Одно и то же. Вокруг да около.
В крайнем случае хотите узнать, где лучше качество? Протестируйте наглядно сами, убедитесь на 100%. Все просто.
Считаю данный метод популяризации не приемлемым.
Результаты теста вполне адекватны, если рассматривать как тест, а не способ популяризацииТолько шкалы на их графиках мне не нравятся
Какую версию теоры они брали? Нигде не написано.