OpenAI в прямом эфире анонсировала амбициозный роадмап. По словам гендиректора Сэм Альтман (Sam Altman), к сентябрю 2026 их системы дотянут до уровня стажёра‑исследователя, а к 2028 — до автономного «полноценного ИИ‑учёного». В тот же день компания закрыла гештальт со структурой и превратилась в public benefit corporation — формат «компания в интересах общества», который снимает старые уставные ограничения и открывает ворота под новые мешки капитала.
Главный научный сотрудник Якуб Пачоки (Jakub Pachocki) уточнил: речь о системе, способной самостоятельно вести крупные исследовательские проекты. Более того, по их оценкам, «сверхразумные» системы, превосходящие человека в широком спектре критичных задач, достижимы методами глубокого обучения менее чем за десятилетие. А Пачоки добавил деталь про «мышечную массу»: окно «времени на размышление» уже сейчас может доходить до ~5 часов на задачу с результатами уровня участников Международной математической олимпиады — и это окно будут резко расширять за счёт роста вычислительных ресурсов на этапе вывода.
Что именно обещают
Лестница прогресса: стажёр‑исследователь к 2026, автономный «полноценный» к 2028.
Метод: постоянные алгоритмические апгрейды + радикальное наращивание вычислений на выводе (больше «времени на думать» для модели).
Домены: медицина, физика, технологии — ускорение открытий и решение задач выше человеческого темпа.
Новая структура: public benefit corporation для коммерции + OpenAI Foundation с 26% акций, который задаёт исследовательские приоритеты, курирует безопасность ИИ и берёт на себя $25 млрд обязательств на лечение болезней с помощью ИИ.
Почему это вообще может сработать
Глубокое обучение любит масштаб: больше данных, больше параметров и особенно больше «времени размышления» на задачу — и кривая качества ползёт вверх.
Автономные пайплайны: генерация гипотез → дизайн экспериментов/симуляций → анализ данных → формализация результатов. Чем меньше человек в цикле, тем быстрее итерации.
Инфраструктура: PBC‑статус = легче поднимать капитал под GPU‑фермы и долгие дорогие эксперименты.
Проверяемость: кто валидирует «открытия», если ИИ сам ставит задачи и интерпретирует результаты? Репликация, слепые тесты, независимые лаборатории — иначе будет «очень умно, но не факт, что верно».
Данные и домены: в медицине и физике реальность кусается. Ограничения на данные, этика, регуляторика, мокрые лаборатории, шумные эксперименты — не всё решается симуляторами.
Стоимость вывода: «думать дольше» = платить больше. Экономика «пяти‑десяти часов мозгового времени на одну задачу» быстро упирается в счета за электричество и GPU.
Метрики: выигрывать бенчмарки ≠ делать науку. Наука — это не только решать задачки, но и ставить правильные вопросы, избегать p‑хаккинга и публиковать воспроизводимые результаты.
Риски безопасности: система, которая умеет планировать и автоматизировать эксперименты, обязана быть ограничена политиками и надзорами. Иначе добрый утюг превращается в лабораторию с сюрпризом.
Дрог‑дискавери и биоинженерия: перебор молекулярных пространств, дизайн белков, персонализированная терапия — в разы быстрее и дешевле.
Физика и материалы: поиск фаз, метаматериалов, батарей, катализаторов с заданными свойствами — с ИИ‑помощником, который не устает от миллионов симуляций.
«ИИ как PI»: планирование грантов, составление протоколов, автогенерация статей и кода анализа — человек становится редактором‑архитектором, а не грузчиком данных.
Политэкономия момента
Перестройка в PBC и пакет акций у OpenAI Foundation означают более прямую связку между финансированием и миссией: под крупные научные ставки нужны и длинные деньги, и социальный мандат.
$25 млрд обязательств на «ИИ против болезней» — красивая заявка, но она же и KPI: мир спросит не пресс‑релиз, а лекарства, клинические протоколы и выживаемость в статистике.
Вопросы, которые мы, как вредные редакторы, повесим на стену
Как именно будет измерён «уровень полноценного ИИ‑исследователя»? Набор бенчмарков? Портфель реальных публикаций и патентов? Воспроизводимость третей стороной?
Насколько «автономен» будет этот учёный: от гипотезы до мокрой лаборатории, или только симуляции и анализ?
Как устроен контур безопасности: что система не планирует неэтичные/опасные эксперименты и не проламывает ограничения ради метрики?
Экономика вывода: кто оплачивает часы «размышления» на уровне серьёзных грантов и индустриальных R&D?
Вердикт ГикТрафика
Амбиция — 10/10, реализм — аккуратные 6/10 до доказательств в железе и в журналах. Масштаб вычислений и алгоритмические трюки действительно могут дать «ИИ‑стажёра» уже завтра, но «полноценный исследователь» — это ещё про культуру верификации и работу с реальными установками.
Структурная реформа (PBC + фонд с 26%) логично стыкуется с планом: научный рывок требует и денег, и публичной легитимности.
Если OpenAI покажет к 2026 не слайд с бенчмарками, а череду воспроизводимых исследований и реальные медицинские результаты под надзором регуляторов — поверим в дедлайн 2028. Если нет — отнесём это в коллекцию громких дат рядом с «летающими машинами к 20XX».
Подписывайтесь на канал, что бы быть в курсе Гик-новостей.