| |
| |
| 3.14, Аноним (1), 00:44, 03/04/2026 [^] [^^] [^^^] [ответить]
| +/– | |
> Так она же болтается ни туда ни сюда по разным параметрам
В опен сорсе, лучшее что есть на данный момент. Из закрытых, да Опусу уступает точно.
> а создатель модели и его команда ушли.
Да и черт с ними, модели как выходят, так и выходят. Последняя вон вчера вышла:
- https://qwen.ai/blog?id=qwen3.6
| | |
|
|
| |
| 2.10, vibecoder (?), 00:26, 03/04/2026 [^] [^^] [^^^] [ответить]
| +1 +/– |
Вы правы отчасти. По конструкции - да, черный ящик. Но это не freeware, это просто веса, которые... opensource.
| | |
|
| 1.4, Anonimbus (?), 23:52, 02/04/2026 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Попробовал 26B A4B, не прошла большую часть моего тестового набора и оказалась хуже Qwen3.5 35B A3B и Devstral Small 2 24B instruct 2512.
В целом ничего нового, геммы как сливали всем, так и продолжат
| | |
| |
| 2.9, vibecoder (?), 00:23, 03/04/2026 [^] [^^] [^^^] [ответить]
| +2 +/– |
Devstral недооцененная моделька. В своё время очень удивила. Правда не знаю, как щас...
| | |
|
| 1.6, Аноним (6), 00:13, 03/04/2026 [ответить] [﹢﹢﹢] [ · · · ]
| –1 +/– |
Перепись мажоров с бесполезной игрушкой в комментах. Инферрить дорого, а результат вообще ни на что не годен (это я сужу по сервисам, доступным в инете, такие же и более толстые модели хостящие, даже полноценный Gemini после отупления в начале 2024 если не ошибаюсь ни на что стал не годен, цензуру вкорячили - и модель отупела, ещё был весьма годен Grok для преобразования вкоряченных в контекст текстов, но на lmarena на него были очень конские лимиты, и o3 для написания принципиально нового кода с нуля через 0-shot промпты, он как раз офигенно работал, и сделал мне несколько наукоёмких вещей, которых я сам бы не сделал, не смотря на то, что моя подготовка позволяет, я на отладку подобной задачи (branch and bound + a*) месяц угрохал, а тут бац - и zero-shot промптом сразу результат, если бы результат не выдало - вот ту задачу, что я модели делегировал - я бы просто забросил, код кстати я выкинул, мне просто один раз надо было на вопросик ответить, чисто из любопытства, но не "сэмом альтманом клянусь", а с пруфами). Меня из моделей семейств gemma разве что 240m может заинтересовать - она идёт на моей "коре дуба" с 2 гигами DDR2-памяти. Но она тоже ни на что не годна. Она даже инструкции выполнить не может. Как и модели семейства LFM2.5 (они намного получше геммы, при том же объёме, но у них RNN + Neural ODE технология, они тормознутее, и со сбросом контекста в llama.cpp проблемы).
| | |
|