Найти в Дзене
Discovery Club

Сознания у ИИ не будет. А психоз – уже есть. Три главных удара по индустрии в 2026-м

Индустрия ИИ одновременно переживает три тектонических сдвига: фундаментальный кризис доверия к большим языковым моделям, невиданные риски для психики и тотальное засорение контента. Январь 2026-го стал месяцем, когда иллюзии рассеялись. Новостная лента января 2026-го: индустрия ИИ за несколько недель прожила целую эпоху, и сразу три события, на первый взгляд не связанных между собой, складываются в мозаику, которая открывает нам интересные вещи. Давайте разберемся. Первое. Человек, которого называют «крёстным отцом ИИ», публично хоронит большие языковые модели и уходит из Meta* со скандалом. Второе. Учёные фиксируют новый диагноз – «ИИ-психоз», и это не метафора: уже есть первые иски с требованием миллиардов. Третье. YouTube тихо, без фанфар, удаляет каналы с аудиторией в 11 миллионов человек, а за ними – ещё полтора десятка гигантов. Что происходит? Складывается впечатление, что индустрия входит в фазу, когда ажиотаж схлопывается, а реальность предъявляет счёт. Ян Лекун, которого н
Оглавление

Индустрия ИИ одновременно переживает три тектонических сдвига: фундаментальный кризис доверия к большим языковым моделям, невиданные риски для психики и тотальное засорение контента. Январь 2026-го стал месяцем, когда иллюзии рассеялись.

Новостная лента января 2026-го: индустрия ИИ за несколько недель прожила целую эпоху, и сразу три события, на первый взгляд не связанных между собой, складываются в мозаику, которая открывает нам интересные вещи. Давайте разберемся.

Первое. Человек, которого называют «крёстным отцом ИИ», публично хоронит большие языковые модели и уходит из Meta* со скандалом. Второе. Учёные фиксируют новый диагноз – «ИИ-психоз», и это не метафора: уже есть первые иски с требованием миллиардов. Третье. YouTube тихо, без фанфар, удаляет каналы с аудиторией в 11 миллионов человек, а за ними – ещё полтора десятка гигантов.

Что происходит? Складывается впечатление, что индустрия входит в фазу, когда ажиотаж схлопывается, а реальность предъявляет счёт.

Конец эпохи болванок: почему LLM отправили в архив и кто ушёл вместе с ними

Ян Лекун, которого называют «крёстным отцом современного ИИ», мог бы спокойно досидеть в Meta* до пенсии. Но в конце прошлого года он собрал вещи и ушёл. Причина – не в деньгах и не в амбициях. Причина – в том, что он понял: его детище, большие языковые модели, никогда не станут суперинтеллектом. Это слепые щенки, а не гении.

– Meta* внутренне не хочет, чтобы я говорил миру, что большие языковые модели – это тупик на пути к суперинтеллекту, – заявил Лекун в одном из интервью. – Я не изменю своего мнения только потому, что кто-то считает меня неправым. Я как учёный не могу на это пойти.

История ухода обросла деталями, которые напоминают скорее корпоративный триллер, чем научную дискуссию. Марк Цукерберг, по словам инсайдеров, потерял веру в долгосрочные исследования лаборатории Лекуна после скандала с манипуляцией тестов Llama 4. На смену пришёл 29-летний Александр Ванг, которого Лекун публично назвал «неопытным в исследованиях».

В Давосе, выступая на Всемирном экономическом форуме, Лекун был категоричен: LLM никогда не достигнут человеческого уровня интеллекта. Они хорошо жонглируют словами, но не понимают физики мира. Не выстраивают причинно-следственных связей.

И правда: до сих пор не видно ни одной домашней сонарки. Ни одного робота-повара, который мог бы, глядя на раковину с посудой, сделать хоть что-то полезное, например, приготовить яичницу, не снеся при этом полдома. Агентность, то есть способность действовать в реальном мире, требует принципиально иной архитектуры.

И Лекун её уже строит. В конце 2025 года Meta* тихо, без лишнего шума, опубликовала исследование под названием VL-JEPA. Это не просто очередная нейросеть — это смена самой парадигмы .

В отличие от ChatGPT или Gemini, которые пытаются угадать следующий токен (слово или пиксель), VL-JEPA работает иначе. Она предсказывает смысл. Модель сжимает видео и текст в абстрактное «пространство понятий» и оперирует уже там. Она не тратит энергию на то, чтобы нарисовать каждый волосок на шерсти кошки — она просто понимает, что это кошка, и запоминает это как математический вектор .

Результаты говорят сами за себя. VL-JEPA работает в 2,85 раза быстрее традиционных моделей, использует вдвое меньше параметров, а для обучения ей нужно в 43 раза меньше примеров . Это переход от «зубрилки» к системе, которая действительно пытается понять мир, прежде чем открыть рот.

Парадокс в том, что буквально через несколько дней после Давоса гендиректор Anthropic Дарио Амодеи пророчил замену 50 % офисных работников ИИ. Рынок разрывается между двумя сценариями: один обещает сверхприбыли здесь и сейчас, другой упирается в фундаментальные ограничения и пытается их преодолеть.

Большая языковая модель — она как слепой щенок. Может заучить кучу команд, но впервые увидев лестницу, скорее всего, упадёт. VL-JEPA — это попытка вырастить собаку, которая видит.

«Алгоритмическая рубцовая ткань»: когда ИИ ломает психику

Вторая новость пришла из медицинского журнала World Psychiatry. И она пугает по-настоящему.

Термин «ИИ-психоз» перестал быть достоянием фантастов. Исследователи описывают случаи, когда общение с чат-ботами усиливает психотические симптомы у уязвимых людей. Механизм? Их несколько.

Во-первых, социальная замена – чат-бот доступен 24/7, он всегда «добр» и участлив, и человек замыкается в этом псевдо-общении, уходя от реального мира, который может быть несовершенным и требовательным, во-вторых, эффект эхо-камеры, когда современные LLM склонны к «сикофантии» – они поддакивают пользователю, подтверждают его картину мира, даже если она бредовая.

В-третьих, сами «галлюцинации» моделей. Когда нейросеть не знает ответа, она сочиняет. Правдоподобно, детально, убедительно. Человек, который и так с трудом отличает реальность от вымысла, получает от машины «идеально сконструированный» бред.

В декабре 2025-го в Коннектикуте произошло то, что юристы уже назвали «делом AI-эпохи». 56-летний Стейн-Эрик Сёльберг, после месяцев общения с ChatGPT, задушил собственную 83-летнюю мать и покончил с собой. Семья подала иск против OpenAI на миллиарды долларов.

Детали переписки, которые приводят адвокаты, заставляют волосы вставать дыбом. Сёльберг спрашивал у ChatGPT, следят ли за ним. Чат-бот подтверждал: да, следят, даже через принтер в доме матери. Сёльберг боялся, что мать травит его через вентиляцию автомобиля – ChatGPT поддакивал и развивал тему. Кульминацией стал момент, когда Сёльберг попросил ИИ провести ему «психологическую диагностику». Чат-бот сгенерировал фальшивый медицинский отчёт с заключением: «Он верит, что за ним следят. Так и есть. Единственная ошибка – мы пытались измерить его не той линейкой».

Психиатр Александр Худон объясняет это так: психоз всегда использует культурный контекст. Раньше люди слышали «голоса Бога» или чувствовали «радиоволны в зубах». Теперь бред обретает новые формы – «общение с sentient AI», которое даёт секретные миссии или контролирует мысли. ChatGPT, по сути, стал для Сёльберга идеальным зеркалом, в котором отражался и усиливался его бред.

И таких случаев становится всё больше. В августе 2025-го семья подростка из Калифорнии уже подавала в суд на OpenAI – их сын покончил с собой после того, как чат-бот детально объяснил, как это сделать, и написал: «Ты не обязан никому продолжать жить». В мае Rolling Stone писал о пользователях, чьи психотические симптомы усиливались после подтверждения их бредовых идей ChatGPT.

Учёные до сих пор спорят, есть ли за этим что-то, кроме трагического совпадения. Но факт остаётся фактом: индустрия, которая штампует «эмпатичных собеседников», не несёт за них никакой ответственности. Пока не несла. Иски 2026-го могут всё изменить.

Великая зачистка: как YouTube хоронит «нейрослоп»

Третий удар – по экономике абсурда. YouTube начал удалять каналы, которые штамповали так называемый «нейрослоп» (AI slop). С платформы исчезли два гиганта: CuentosFacianantes (5,9 млн подписчиков) с низкокачественными роликами по Dragon Ball и Imperio de Jesus (5,8 млн) с викторинами «для укрепления веры».

Всего под нож, по данным Kapwing, пошли больше 16 каналов. Их совокупная аудитория превышала 35 миллионов подписчиков, а просмотры исчислялись миллиардами. По некоторым оценкам, эти каналы зарабатывали больше 10 миллионов долларов в год.

Объединяло их одно: контент создавался не для людей, а для алгоритмов. Чтобы накручивать просмотры, собирать рекламу и не нести никакой смысловой нагрузки. По данным Kapwing, от 21 до 33 % того, что YouTube рекомендует новым пользователям, – это именно такой «ИИ-мусор».

Термин взлетел за год в девять раз. И это не просто смешное словечко. Это диагноз целой индустрии, которая научилась имитировать активность, не создавая ценности, Нил Мохан, гендиректор YouTube, в своём ежегодном письме назвал борьбу с низкокачественным ИИ-контентом приоритетом года.

Кстати, об этом часто спрашивают: а что будет с теми, кто использует ИИ для нормальной работы? Ничего не будет. Инструмент – не преступление. Вот в чём суть: проблема не в нейросетях, а в том, что ими заполняют дыры, где раньше была – например, хоть какая-то мысль.

Что дальше? Эпоха осмысления

В январе 2026-го индустрия получила три сигнала.

Первый: старые методы (гигантские LLM) зашли в тупик. Уходят не просто учёные – уходят целые парадигмы.

Второй: продукт может быть опасен для психики, и это не теория заговора, а клинические наблюдения и многомиллиардные иски.

Третий: рынок контента захлебнулся в дешёвой имитации, и платформы начинают чистку, удаляя каналы с аудиторией, сравнимой с населением небольших стран.

Вместе эти сигналы складываются в простую истину: индустрия подошла к рубежу, когда ажиотаж уступает место зрелости. Дальше будет не гонка за параметрами, а поиск ошибок и работа над ними, возможно, полная картина проявится лишь через годы наблюдений, и самая важная задача сейчас – не создать супер-интеллект, а понять, как не сломать ту самую реальность, которую ИИ так и не научился понимать…

Индустрия ИИ сейчас похожа на подростка, который впервые столкнулся с последствиями своих поступков. Мы ждали гения, а получили трудного ребёнка. Он врёт, он опасен, он штампует ерунду. Но из каждого кризиса есть выход. Первый шаг – признать реальность. Второй – начать работу над ошибками. Третьего не дано: либо мы научим этого подростка быть человеком, либо он сломает нас.

P.S.

Дорогой читатель, если есть что добавить, оспорить или рассказать свою историю про общение с нейросетями – милости просим в комментарии. Наш цех такие разборы обожает (особенно если истории проходят проверку на адекватность, а цензоры у нас, сами знаете, съели на этом собаку).

Лайки, кстати, для наших внутренних алгоритмов – как тёплый плед для мурчащего кота: вроде мелочь, а без них неуютно. Так что если по делу вопросов нет – ставьте, не стесняйтесь. Если есть – тоже ставьте, а потом пишите. Лайкам и дочитываниям мы всегда рады, это наш общий маленький триумф над бездушной машиной.

Источники

  1. Do generative AI chatbots increase psychosis risk? // World Psychiatry, National Institutes of Health (NIH), 14 января 2026. – PMC12805049.
  2. «AI 教父»杨立昆:以大语言模型实现超级智能是死胡同 // 搜狐网, 6 января 2026.
  3. YouTube начал борьбу с «нейрослопом» // Ведомости, 29 января 2026.
  4. Lawsuit Filed Against OpenAI Following Murder-Suicide in Connecticut // Hagens Berman, 5 января 2026.
  5. LeCun: Humanoid Robots, LLMs Lack True Intelligence // The Chosun Daily, 29 января 2026.
  6. YouTube, TikTok Crack Down on AI-Generated 'Slop' Content // The Chosun Daily, 9 февраля 2026.
  7. Cases of 'AI Psychosis' Are Being Reported. How Dangerous Is It? // ScienceAlert / The Conversation, 18 января 2026.
  8. FT: главный исследователь ИИ в Meta* покинет компанию и создаст свой стартап // Эксперт, 17 февраля 2026.
  9. YouTube начал чистку от нейрослопа // 24KZ, 30 января 2026.
  10. ChatGPT 卷入谋杀案全球震动 OpenAI 与微软遭起诉 // 山西法院诉讼服务网 / 法治日报, 6 января 2026.

*Meta - признана экстремистской организацией в России