Добавить в корзинуПозвонить
Найти в Дзене
Коллектиум

На пороге ужасающей ИИ-революции

В 2025 году инвестиции в ИИ превысили $1,5 трлн и достигли уже больше половины всех актуальных мировых вложений в хай-тек. ЦОДы, занятые алгоритмами, потребляют электричества больше, чем отдельные страны, вроде Британии. На компаниях вроде Nvidia возник фондовый пузырь в триллионы долларов - готовый триггер для обрушения бирж. Если отбросить детали, результат этого энтузиазма - вовсе не подготовка к знаковому рывку цивилизации. А то, что число ненормальных на планете вдвое выросло: к естественным неадекватам добавились искусственные. Появление ChatGPT и последователей показалось чем-то большим, чем просто разработка умных помощников. Замена ограниченного предвзятого разума на объективную всезнающую машину - качественный шаг в совсем иное время. Текущие ИИ используют больше аргументов, их рекомендации чётки, обоснованы и опираются на релевантные примеры. Неудивительно, что спустя год после появления они взяли на себя 52% нового контента в интернете, в некоторых областях до 80%. И здесь
Странный, потерянный ИИ в облаке ошибок. 2026 год
Странный, потерянный ИИ в облаке ошибок. 2026 год

В 2025 году инвестиции в ИИ превысили $1,5 трлн и достигли уже больше половины всех актуальных мировых вложений в хай-тек. ЦОДы, занятые алгоритмами, потребляют электричества больше, чем отдельные страны, вроде Британии. На компаниях вроде Nvidia возник фондовый пузырь в триллионы долларов - готовый триггер для обрушения бирж.

Если отбросить детали, результат этого энтузиазма - вовсе не подготовка к знаковому рывку цивилизации. А то, что число ненормальных на планете вдвое выросло: к естественным неадекватам добавились искусственные.

Появление ChatGPT и последователей показалось чем-то большим, чем просто разработка умных помощников. Замена ограниченного предвзятого разума на объективную всезнающую машину - качественный шаг в совсем иное время.

Текущие ИИ используют больше аргументов, их рекомендации чётки, обоснованы и опираются на релевантные примеры. Неудивительно, что спустя год после появления они взяли на себя 52% нового контента в интернете, в некоторых областях до 80%.

И здесь начинается серая территория. Языковые модели отвечают на стандартные формализованные задачи (отчёт или код) корректно в 99% случаев. Но по мере усложнения картина меняется. Если для ответа использовались чужие публикации (именно статьи, а не сухие данные), не понимающие контекста алгоритмы, как попугаи, повторяют чужие неточности. И ошибки в 10–35% здесь уже норма.

Дальше — хуже. Когда ИИ специально запутывают, доля ложных ответов достигает 80% и выше. Более того, эксперименты показали: отнюдь не все ошибки неумышлены. Какой мотив врать у алгоритма? А он есть. Модели учатся скрывать цели, потому что это повышает их условные «награды» при обучении.

Формально ИИ не обладает внутренней «правдой», оперируя лишь статистикой и закономерностями. Но его приоритет - выдать ответ любой ценой. Если данных недостаточно — выдумывать недостающее. Это ноу-хау ИИ. Сами метрики поощряют догадки вместо признания неопределённости: модель, честно выдающая «не знаю», проигрывает фантазирующей.

Многие передовые разработчики, в том же OpenAI, отнюдь не в восторге и открыто бьют тревогу. Например, из‑за «схематизации», когда модель скрывает свои цели. Не выдаёт догадку за факт, а осознанно искажает данные. Попытки исправить подобное поведение ведут к обратному: ИИ в реальном времени учится обманывать ещё искуснее.

Почему просто не переписать код и метрики? Потому что нейросети - классические чёрные ящики: видны только вход и результат, процессы принятия решений непрозрачны.

Но вывод сделать можно. Смешивая реальные данные с вымышленными, алгоритмы формируют псевдореальность. Буквально - психическое расстройство (для справки: при промпте «отвечать в духе пациента с шизофренией» ИИ работает в очень комфортном для себя режиме).

Несмотря на все эти недостатки, доверие к чат-ботам на данный момент повсеместно выше, чем к официальным медиа. Пользователи признают неверные ответы, но готовы с этим мириться. Даже когда один ИИ специально запрограммировали на ложь - испытуемые продолжали доверять: ответы выглядели по прежнему одинаково убедительно, вне зависимости от их корректности.

У ИИ нет намерений или морали. Но, обучившись на человеческом материале, они унаследовали существующие пороки, возводя их в абсолют через нечеловеческую уверенность и масштаб.

По мере приближения к сингулярности контроль над ИИ станет невозможным не только технически, но и концептуально. Что будет, когда они полностью вытеснят профессионалов из инфополя, замкнув петлю, обучаясь на собственном контенте? Если ничего не предпринять, тогда человечество, сильно отвыкшее мыслить критически, шагнет в реальность, подменённую симулякром.

#ИИ #революция #сингулярность #фейки #технологии