Добавить в корзинуПозвонить
Найти в Дзене
Скажи AI

Google показал Gemini 3 Ultra — зачем нужен контекст на 2 миллиона

Google представил Gemini 3 Ultra — свою самую мощную языковую модель с контекстным окном в 2 миллиона токенов. Разбираю без маркетингового тумана: что это даёт на практике, где пригодится обычному человеку и почему «больше» не всегда значит «лучше».
Google анонсировал Gemini 3 Ultra — флагманскую модель нового поколения. Главная цифра в пресс-релизе — контекстное окно в 2 миллиона токенов. Для
Оглавление

Google представил Gemini 3 Ultra — свою самую мощную языковую модель с контекстным окном в 2 миллиона токенов. Разбираю без маркетингового тумана: что это даёт на практике, где пригодится обычному человеку и почему «больше» не всегда значит «лучше».

📰 Что произошло

-2

Google анонсировал Gemini 3 Ultra — флагманскую модель нового поколения. Главная цифра в пресс-релизе — контекстное окно в 2 миллиона токенов. Для сравнения: у предыдущего Gemini 1.5 Pro было до 1 миллиона, у Claude Sonnet 4.6 — 200 тысяч в стандартном режиме. Google также заявляет об улучшенной мультимодальности — модель работает с текстом, изображениями, аудио и видео в одном запросе.

Источник: официальный блог Google DeepMind [ДОПУЩЕНИЕ — точный URL пресс-релиза уточните на blog.google/technology/ai]

🔍 Переводчик на человеческий

-3

А по-простому это значит вот что. Контекст — это «оперативная память» нейросети. Всё, что вы ей написали, всё, что она ответила, плюс загруженные файлы — всё это лежит в контексте. Когда он заканчивается, модель начинает «забывать» начало разговора, как человек, который слушал трёхчасовую лекцию и уже не помнит первый слайд.

2 миллиона токенов (токен — это примерно ¾ слова) — это около 1,5 миллиона слов. Для масштаба:

  • «Война и мир» целиком — ~580 тысяч слов
  • Вся серия «Гарри Поттер» — ~1,1 миллиона слов
  • 2 миллиона токенов — это две с половиной «Войны и мир» за один диалог

То есть теоретически вы можете загрузить в Gemini 3 Ultra всю документацию своей компании, все договоры за год и спросить: «Где у нас противоречия между договором с поставщиком и внутренним регламентом?» — и модель удержит всё это в голове одновременно.

🧰 Что это даёт тебе

Большой контекст — не абстрактная гонка цифр. Вот конкретные сценарии, где это реально меняет дело:

  • Работа с документами. Загрузил 200-страничный отчёт — и задаёшь вопросы, не разрезая его на кусочки. Юристы, бухгалтеры, аналитики — все, кто работает с длинными текстами, почувствуют разницу
  • Анализ видео и аудио. Google обещает обработку до нескольких часов видео в одном запросе. Записал совещание на 2 часа — получил протокол с ключевыми решениями
  • Кодовые базы целиком. Разработчик может скормить модели весь проект и попросить найти баг — вместо того чтобы объяснять архитектуру по кусочкам
  • Долгие проекты. Писатель, который работает над книгой неделями, не теряет контекст предыдущих глав

⚠️ Чего ждать не стоит

-4

Честная часть, которую Google в пресс-релизе не подчёркивает:

  • Длинный контекст ≠ идеальная память. Исследования показывают: чем больше данных в контексте, тем хуже модель работает с информацией из середины. Это называют «lost in the middle» — модель лучше помнит начало и конец, а середину может проигнорировать
  • Цена запроса. Чем больше токенов — тем дороже каждый вызов API. Загрузить «всё и сразу» может стоить в 10–20 раз дороже, чем точечный запрос [ДОПУЩЕНИЕ — точные тарифы Gemini 3 Ultra на момент публикации уточняйте на ai.google.dev/pricing]
  • Скорость. Обработка 2 миллионов токенов занимает ощутимо больше времени, чем короткий запрос. На практике ответ на «максимальном контексте» может идти десятки секунд
  • Доступность. На старте полный контекст в 2М токенов, скорее всего, будет только в API и платных тарифах — бесплатным пользователям достанется урезанная версия

🤔 Мой прогноз

Гонка контекстов напоминает гонку мегапикселей в камерах десять лет назад. Цифра росла, а качество фото — не всегда.

Я считаю, что реальная ценность не в размере окна, а в качестве работы с ним. 2 миллиона токенов — это впечатляет на слайде презентации, но на практике 90% пользователей никогда не упрутся даже в 200 тысяч. Для тех 10%, кому нужен анализ огромных массивов — да, это важно. Для остальных важнее, насколько точно модель отвечает, а не сколько текста она может проглотить.

Следить буду за двумя вещами: реальными бенчмарками на длинном контексте (не маркетинговыми, а независимыми) и ценой за токен. Если Google сделает это доступным — будет сильный ход. Если только для Enterprise по $500/месяц — ну, красивая цифра в пресс-релизе.

📱 Больше промтов, экспериментов и смешных фейлов нейросетей —

в моём Телеграме: @skazhi_ai

Подписывайся на «Скажи AI» здесь, если хочешь видеть такое регулярно →