Пару лет назад, когда хайп вокруг генеративного ИИ только набирал обороты, мы писали об опасности потонуть в продуцируемой LLM бессмыслице, если мы не задействуем опыт лингвистов-людей. Были бы рады ошибиться, но имеем что имеем. Предупреждение, которое мы сделали два года назад, сейчас даже более актуально — и не позволяйте рекламным видеороликам Сэма Альтмана «GPT-5 лучше всего на свете» убедить вас в обратном.
Несмотря на маркетинговые заявления о том, что GPT-5 подобен дежурной команде экспертов «по всему», его фактическая реализация, мягко говоря, разочаровала. В X и Reddit пользователи жалуются на медлительность отклика («задумчивость» системы) и все те же галлюцинации, которыми страдали предыдущие модели. Появилась даже петиция на Change.org, призывающая OpenAI восстановить доступ к GPT-4o, что и было сделано, сейчас GPT-4o снова доступна подписчикам как “Legacy Model”. Рынки также не впечатлились: опрос Polymarket показал, что шансы OpenAI заиметь «лучшую модель ИИ к концу августа» всего за один час упали с 75% до 14%.
Но зададимся вопросом: а были ли основания ожидать, что GPT-5 окажется чем-то, чем не является и чем быть никак не может (не считая слепую веру в гендиректора OpenAI)?
Во-первых, в архитектуре или алгоритмах системы не видно никаких принципиальных инноваций – лишь незначительные изменения, которые, как отмечают наблюдатели, направлены скорее на снижение стоимости вычисления логического вывода для OpenAI, чем на улучшение результатов для пользователей.
Во-вторых, как пишет Адам Беккер в своей новой книге «Больше всего навсегда»:
«ChatGPT – это движок генерации текста, говорящий размазанным голосом всего Интернета в целом. Он умеет лишь воспроизводить этот голос и заботится лишь о правильности его воспроизведения. В этом смысле он не совершает ошибку, когда галлюцинирует, потому что все, что ChatGPT может делать, это галлюцинировать. Такова единственная функция этой машины. Вычисляя, что сказать дальше, она не задействует понятия истины или лжи. Все, чем она оперирует, это размытый образ употребления речевых паттернов в сети. Это Интернет, увиденный сквозь тусклое стекло.»
В-третьих, что важнее всего, произведенные людьми данные для обучения генеративных моделей ИИ заканчиваются. Все свободно доступные тексты уже собраны до буквы. Теперь перед ИИ-компаниями стоит дилемма: либо платить создателям контента за новые данные (повышая затраты еще больше), либо продолжать копаться в Интернете, полагаясь на платформы вроде Reddit и Википедии в качестве основных источников.
Но вот незадача: этот «новый» контент уже загрязнен результатами работы старых LLM (ChatGPT-2, ChatGPT-3 и т д.) со всеми их галлюцинациями, ошибками и бессмысленными ответами. Ввиду отсутствия подлинного интеллекта языковые модели не способны отличить написанное человеком от сгенерированного ИИ отстоя – поэтому они поглощают и извергают все без разбора.
Что в итоге? GPT-5, вероятно, скормили гору низкокачественного синтетического контента, и последствия лишь начинают раскрываться. Однако худшее еще впереди.
Недавняя статья в журнале Nature предупреждает, что «неизбирательное использование сгенерированного моделями контента в обучении приводит к необратимым дефектам в результирующих моделях, в которых хвосты распределения исходного контента исчезают». Исследователи называют этот эффект «коллапсом модели»: неизбежная деградация, при которой ИИ, обученный на данных от ИИ, перестает улавливать редкие, но значимые закономерности, производя упрощенные, повторяющиеся или искаженные результаты. Звучит знакомо? Именно это мы предсказывали два года назад. Исследование повторяет даже наш аргумент: человеческий контроль незаменим, будь то создание оригинального контента или фильтрация шума, генерируемого ИИ из обучающих наборов данных.
Мы тогда особо упирали на то, что необходимы лингвисты-люди — не LLM —для написания и перевода текстов высокого качества. Сегодняшние исследования и неиллюзорные провалы лишь подчеркивают эту необходимость. Генеративный ИИ может быть полезен в узкоспециальных областях как отличный инструмент для экспертов, но для его эффективного применения необходимо обладать критическим мышлением и знанием предмета. В противном случае его гладкоречивые алгоритмы обманут вас, подсунув что-нибудь требующее исправления, но не исправленное, – а речь может идти об очень важном, критическом для вас факте или утверждении.
Все это не значит, что от генеративного ИИ следует отказаться, — вовсе нет. Эти инструменты никуда не денутся, и их потенциал реален. Но мы должны переосмыслить способ их создания и использования: ценить человеческие знания и опыт, требовать прозрачности обучающих данных и разрабатывать системы, которые дополняют – а не заменяют – человеческое суждение. Эксперты-люди во всех областях необходимы как никогда.
По мере роста возможностей моделей ИИ меняется подход не только к необработанным данным, но и к задачам аннотирования — от простой маркировки (например, идентификации объектов) к уточнению нюансов в таких областях, как медицина или юриспруденция. При оценке вывода или решении специфических проблем заметить тонкие различия и выявить ошибки способны только эксперты — старшие инженеры, врачи, юристы и т. д. Не обладающие нужными знаниями краудворкеры не справляются с этими ролями, приводя к снижению показателей модели или пропуская критические проблемы. Задача, конечно, не из легких (https://www.amplifypartners.com/blog-posts/annotation-for-ai-doesnt-scale).
Все сводится к тому, о чем мы говорили с самого начала: эксперты-люди играют решающую роль в обеспечении эффективной работы ИИ. Факты «коллапса модели» из упомянутой выше статьи в журнале Nature несут в себе ясный и отрезвляющий посыл: ИИ не может быть надежно обучен на основе собственного вывода. Это фундаментальное ограничение подчеркивает незаменимость человека при создании контента, аннотировании и экспертной оценке. Вместо стремления к полной автономности продвижение ИИ должно идти по пути синергии с человеческим интеллектом. ИИ следует рассматривать как мощное подспорье для экспертов-людей, как инструмент, призванный расширить наши возможности и гарантировать, что технологии служат человечеству, а отнюдь не наоборот.