The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Google выпустил открытую AI-модель Gemma 4, построенную на технологиях Gemini 3

02.04.2026 23:30 (MSK)

Компания Google опубликовала новое семейство больших языковых моделей Gemma 4, основанных на технологиях модели Gemini 3. Gemma 4 распространяется под лицензией Apache в вариантах с 2.3, 4.5, 25.2 и 30.7 миллиардами параметров (E2B, E4B, 31B и 26B A4B). Варианты E2B и E4B подходят для использования на мобильных устройствах, системах интернета вещей (IoT) и платах типа Raspberry Pi, а остальные варианты пригодны для применения на рабочих станциях и системах с потребительскими GPU. Размер учитываемого моделью контекста составляет 128 тысяч токенов для моделей E2B и E4B, и 256 тысяч токенов для моделей 31B и 26B A4B.

Модели многоязыковые и мультимодальные: из коробки поддерживается 35 языков (при обучении использовано более 140 языков), а на входе может обрабатываться текст и изображения (модели E2B и E4B дополнительно поддерживают обработку звука). Модель 26B A4B основана на архитектуре MoE (Mixture-of-Experts), при которой модель разделена не серию экспертных сетей (при генерации ответа могут использоваться только 3.8 млрд параметров, но скорость существенно выше классических больших моделей), а остальные варианты используют классическую монолитную архитектуру.

Модели поддерживают рассуждения и настраиваемые режимы обдумывания, поддерживают системную роль (System Role) для обработки инструкций (правил, ограничений) отдельно от данных. Модели могут использоваться для написания кода, распознавания объектов на изображениях, покадрового анализа видео, разбора документов и PDF, оптического распознания печатного и рукописного текста (OCR), распознания речи и перевода между языками. Возможно использование в качестве автономных агентов, взаимодействующих с различными инструментами и API.

В большинстве тестов модели серии Gemma 4 существенно превзошли модель Gemma 3 c 27 мдрд параметров. Поддерживается использование Gemma 4 с инструментами и библиотеками LiteRT-LM, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM and NeMo, LM Studio, Unsloth, SGLang, Cactus, Basetan, MaxText, Tunix и Keras.





  1. Главная ссылка к новости (https://deepmind.google/models...)
  2. OpenNews: Рейтинг открытости генеративных AI-моделей
  3. OpenNews: Компания xAI, созданная Илоном Маском, открыла большую языковую модель Grok
  4. OpenNews: DeepMind открыл код AlphaFold 3, AI-системы моделирования структуры белков
  5. OpenNews: Утечка конфиденциальной информации DeepSeek из-за неограниченного доступа к БД с логами
  6. OpenNews: Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с формальной верификацией
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/65127-gemma
Ключевые слова: gemma, google, ai
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (19) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Аноним (1), 23:44, 02/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Поздно. Qwen уже не догнать.
     
     
  • 2.5, Аноним (5), 00:12, 03/04/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Так она же болтается ни туда ни сюда по разным параметрам, а создатель модели и его команда ушли.
    https://artificialanalysis.ai

    Плюс у них из-за регулирования дела идут не очень:
    - https://3dnews.ru/1138644/
    - https://3dnews.ru/1138587/

     
     
  • 3.14, Аноним (1), 00:44, 03/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    > Так она же болтается ни туда ни сюда по разным параметрам

    В опен сорсе, лучшее что есть на данный момент. Из закрытых, да Опусу уступает точно.

    > а создатель модели и его команда ушли.

    Да и черт с ними, модели как выходят, так и выходят. Последняя вон вчера вышла:
    - https://qwen.ai/blog?id=qwen3.6

     
     
  • 4.15, Аноним (5), 00:47, 03/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    >Да и черт с ними, модели как выходят, так и выходят.

    Ну это по инерции, а дальше ?
    https://vc.ru/ai/2771034

     
     
  • 5.17, Аноним (1), 01:07, 03/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    https://en.wikipedia.org/wiki/Alibaba_Group

    Ну наймут другого, делов то. Там оборот 130 миллиардов. Вы думаете им будет тяжело найти человека?

     
     
  • 6.20, Аноним (5), 01:17, 03/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Ну вам виднее.
     
  • 2.16, Джон Титор (ok), 00:49, 03/04/2026 Скрыто ботом-модератором     [к модератору]
  • +/
     

  • 1.3, Аноним (3), 23:51, 02/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +3 +/
    Хех, какое же оно открытое, если это чёрный ящик? Просто freeware
     
     
  • 2.7, Аноним (5), 00:14, 03/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    >Gemma 4 распространяется под лицензией Apache

    https://huggingface.co/collections/google/gemma-4

     
  • 2.10, vibecoder (?), 00:26, 03/04/2026 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Вы правы отчасти. По конструкции - да, черный ящик. Но это не freeware, это просто веса, которые... opensource.
     
     
  • 3.13, 12yoexpert (ok), 00:40, 03/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    cat /dev/random > веса

    ешь, они самые опенсорсные

     

  • 1.4, Anonimbus (?), 23:52, 02/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Попробовал 26B A4B, не прошла большую часть моего тестового набора и оказалась хуже Qwen3.5 35B A3B и Devstral Small 2 24B instruct 2512.
    В целом ничего нового, геммы как сливали всем, так и продолжат
     
     
  • 2.9, vibecoder (?), 00:23, 03/04/2026 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Devstral недооцененная моделька. В своё время очень удивила. Правда не знаю, как щас...
     
     
  • 3.18, Аноним (5), 01:09, 03/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    Потом вышла Devstral 2:
    https://mistral.ai/news/devstral-2-vibe-cli
     
     
  • 4.19, Аноним (5), 01:16, 03/04/2026 [^] [^^] [^^^] [ответить]  
  • +/
    и Leanstral:
    https://opennet.ru/65005-mistral
     

  • 1.6, Аноним (6), 00:13, 03/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Перепись мажоров с бесполезной игрушкой в комментах. Инферрить дорого, а результат вообще ни на что не годен (это я сужу по сервисам, доступным в инете, такие же и более толстые модели хостящие, даже полноценный Gemini после отупления в начале 2024 если не ошибаюсь ни на что стал не годен, цензуру вкорячили - и модель отупела, ещё был весьма годен Grok для преобразования вкоряченных в контекст текстов, но на lmarena на него были очень конские лимиты, и o3 для написания принципиально нового кода с нуля через 0-shot промпты, он как раз офигенно работал, и сделал мне несколько наукоёмких вещей, которых я сам бы не сделал, не смотря на то, что моя подготовка позволяет, я на отладку подобной задачи (branch and bound + a*) месяц угрохал, а тут бац - и zero-shot промптом сразу результат, если бы результат не выдало - вот ту задачу, что я модели делегировал - я бы просто забросил, код кстати я выкинул, мне просто один раз надо было на вопросик ответить, чисто из любопытства, но не "сэмом альтманом клянусь", а с пруфами). Меня из моделей семейств gemma разве что 240m может заинтересовать - она идёт на моей "коре дуба" с 2 гигами DDR2-памяти. Но она тоже ни на что не годна. Она даже инструкции выполнить не может. Как и модели семейства LFM2.5 (они намного получше геммы, при том же объёме, но у них RNN + Neural ODE технология, они тормознутее, и со сбросом контекста в llama.cpp проблемы).
     
  • 1.8, vibecoder (?), 00:19, 03/04/2026 Скрыто ботом-модератором [﹢﹢﹢] [ · · · ]     [к модератору]
  • +4 +/
     
  • 1.11, Аноним (11), 00:35, 03/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Candle тоже поддерживается https://github.com/huggingface/candle/pull/3443
     
  • 1.12, 12yoexpert (ok), 00:37, 03/04/2026 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    домохозяйки ин да хаус, не скрыться от них
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2026 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру