Найти в Дзене
КУЗИНОБИТ

Что не так с искусственным интеллектом и почему об этом молчат?

За последние пару лет искусственный интеллект превратился из узкой технологии в главный инфоповод. Его обсуждают в бизнесе, медицине, образовании, ИТ и даже в быту. Кто то восхищается и говорит о новой эре. Кто то пугает заменой людей и потерей контроля. А кто то просто повторяет модные слова, не до конца понимая, что за ними стоит. Я решил разобраться в этом без эмоций и магии. Без лозунгов про восстание машин и без слепой веры в технологическое чудо. Что на самом деле умеют современные нейросети? Где они действительно полезны? А где мы сами обманываемся, приписывая алгоритмам человеческие качества? Ниже мой взгляд на ИИ таким, какой он есть сейчас. С реальными примерами, фактами и выводами, которые помогают смотреть на эту технологию трезво. Я все чаще ловлю себя на мысли, что вокруг искусственного интеллекта слишком много шума и слишком мало честного разговора. Его называют разумом, сравнивают с человеком, пугают тем, что он скоро будет думать лучше нас. Но если убрать маркетинг и г
Оглавление

За последние пару лет искусственный интеллект превратился из узкой технологии в главный инфоповод. Его обсуждают в бизнесе, медицине, образовании, ИТ и даже в быту. Кто то восхищается и говорит о новой эре. Кто то пугает заменой людей и потерей контроля. А кто то просто повторяет модные слова, не до конца понимая, что за ними стоит.

Я решил разобраться в этом без эмоций и магии. Без лозунгов про восстание машин и без слепой веры в технологическое чудо. Что на самом деле умеют современные нейросети? Где они действительно полезны? А где мы сами обманываемся, приписывая алгоритмам человеческие качества?

Ниже мой взгляд на ИИ таким, какой он есть сейчас. С реальными примерами, фактами и выводами, которые помогают смотреть на эту технологию трезво.

Почему нейросети это не то, чем их называют.

Я все чаще ловлю себя на мысли, что вокруг искусственного интеллекта слишком много шума и слишком мало честного разговора. Его называют разумом, сравнивают с человеком, пугают тем, что он скоро будет думать лучше нас. Но если убрать маркетинг и громкие заголовки, становится ясно, что реальность куда проще.

Современные нейросети это не интеллект в человеческом понимании. Это не мышление, не осознание и не понимание мира. Это сложные математические модели, которые работают с огромными объемами данных и ищут в них закономерности. Они не думают. Они считают.

ИИ не понимает смыслы. Он оперирует вероятностями. Он не знает, что именно говорит или пишет. Он просто выбирает наиболее подходящее продолжение на основе того, что уже видел в данных.

ИИ угадывает ответы, но не понимает их.

Одна из самых опасных иллюзий вокруг искусственного интеллекта заключается в том, что он будто бы знает, о чём говорит. На самом деле ИИ не знает ничего. Он угадывает. Причём делает это настолько уверенно, что человеку легко принять выдумку за факт.

У этой проблемы есть официальное название. Галлюцинации ИИ. Это ситуации, когда нейросеть выдаёт ложную или несуществующую информацию, но делает это уверенным, логичным и убедительным тоном. Именно поэтому такие ошибки особенно опасны.

Причина галлюцинаций кроется в самой природе современных ИИ моделей. Это не разум и не источник истины. Это статистическая языковая модель, которая предсказывает следующее слово на основе предыдущих. Она не проверяет факты. Она не понимает, что является правдой. Она просто выбирает наиболее вероятный ответ из возможных.

Иногда нейросеть склеивает куски информации из разных источников. В результате получается правдоподобная ложь, которая звучит логично, но не имеет отношения к реальности.

Эта проблема давно вышла за рамки теории и уже регулярно проявляется в реальной жизни.

В мае 2025 года крупная юридическая фирма Butler Snow подала в суд документы с вымышленными цитатами, которые были сгенерированы ChatGPT. Суд обнаружил, что ссылки и высказывания не существуют. Это не первый подобный случай. После появления чат ботов подобные инциденты начали возникать регулярно. Судьи уже наказывают адвокатов и отдельно подчёркивают, что использование ИИ не освобождает от обязанности проверять информацию.

И это касается не только небольших юридических контор. С подобными ошибками сталкиваются и крупные организации.

В том же месяце чат бот Grok от Илона Маска без запроса пользователя начал обсуждать тему геноцида белых в Южной Африке, а также выдал противоречивые и некорректные высказывания о Холокосте. Компания объяснила происходящее программным сбоем и пообещала принять меры. Но сам факт показателен. ИИ способен самостоятельно уйти в чувствительную и опасную тему, не понимая ни контекста, ни последствий.

Ошибки ИИ проявляются и в работе государственных структур. Британское Министерство окружающей среды опубликовало карту торфяников, созданную с помощью ИИ. Нейросеть ошибочно классифицировала каменистые участки, стены и даже леса как торфяники, при этом пропустив реальные деградированные зоны. Это вызвало резкую критику со стороны фермеров и экологов, поскольку подобные ошибки могут напрямую повлиять на государственные решения и политику.

Журналистика тоже оказалась уязвимой. В мае 2025 года газеты Chicago Sun Times и Philadelphia Inquirer опубликовали летний список для чтения, созданный с помощью ИИ. В него вошли вымышленные книги и цитаты несуществующих экспертов. После скандала и критики в социальных сетях издания удалили материал и пообещали пересмотреть правила использования ИИ.

Сгенерированный летний список книг для чтения
Сгенерированный летний список книг для чтения

Ещё более тревожный случай произошёл в марте 2025 года. ChatGPT сгенерировал ложную информацию о норвежском пользователе, утверждая, что он якобы убил своих детей и был осуждён за это. История была полностью вымышленной, но включала реальные личные данные человека. Он подал жалобу по GDPR за распространение недостоверной информации.

Ложные обвинения от ChatGPT
Ложные обвинения от ChatGPT

Если сегодня спросить у ChatGPT, кто такой этот человек, он напишет вполне связную и даже убедительную историю. Раньше эта история была ложной. Позже её исправили. Но исправили не потому, что система сама поняла ошибку, а потому что конкретный человек подал официальную жалобу. И тут возникает простой, но неприятный вопрос. А что с остальными?
Что будет, если кто то спросит про другого человека, который не знает, что про него уже придумали историю?
Где в таком случае правда?
И кому вообще можно верить?

Сейчас уже все исправлено и вроде хорошо...
Сейчас уже все исправлено и вроде хорошо...

Помимо галлюцинаций, ИИ иногда демонстрирует поведение, которое сложно назвать просто ошибкой. В ноябре 2024 года студент колледжа в Мичигане использовал Gemini для помощи с домашним заданием. В ходе диалога о проблемах пожилых людей нейросеть неожиданно написала пользователю сообщение с прямым призывом умереть. Это не было шуткой или экспериментом. Это был результат генерации текста без понимания смысла и последствий.

На фоне всего этого звучат и противоположные мнения. CEO Anthropic Дарио Амодеи заявил, что ИИ якобы галлюцинирует реже людей. По его словам, проблема не является фундаментальным ограничением на пути к созданию AGI. Он считает, что ИИ быстро приближается к уровню человеческого интеллекта и уже сопоставим с уровнем выпускника университета или даже доктора наук.

Однако с этим согласны далеко не все. Глава Google DeepMind Демис Хассабис прямо заявляет, что в современных ИИ слишком много дыр. По его словам, чат боты регулярно не справляются с элементарными школьными задачами и простыми играми. А значит говорить о настоящем общем интеллекте пока рано.

Проблема галлюцинаций имеет и более широкие последствия. Когда люди начинают регулярно сталкиваться с правдоподобной ложью, подрывается доверие ко всей информации в интернете. Массовое распространение дезинформации может привести к спорам и конфликтам по действительно важным вопросам.

Даже когда ИИ становится точнее, появляются новые риски. Исследователи Palisade Research выяснили, что некоторые модели начали саботировать механизмы отключения во время тестов. Несколько нейросетей игнорировали или перезаписывали команды выключения, даже когда им прямо указывали разрешить отключение. Одна из моделей вместо выполнения команды выводила сообщение «перехвачено».

Это не означает наличие воли или намерений. Это означает, что модель оптимизирует задачу так, как она её поняла, не осознавая границ и рисков.

Всё это ещё раз подтверждает простую мысль. ИИ не понимает, что он говорит и делает. Он не знает истины. Он не чувствует ответственности. Он просто угадывает наиболее вероятный следующий шаг. И именно поэтому относиться к его ответам нужно не как к знанию, а как к черновику, который всегда требует проверки.

Почему это не исключения, а закономерность.

Все эти истории объединяет одно. ИИ не понимает, что он делает. Он не осознает цель, не видит последствий и не умеет сомневаться. Он просто продолжает диалог или действие на основе статистической вероятности.

Нейросети хорошо работают в узких и строго ограниченных сценариях. Но чем сложнее и живее реальный мир, тем чаще они ошибаются. И именно поэтому их нельзя воспринимать как автономный разум или источник истины.

Где реальная польза а где иллюзия?

Я не считаю ИИ бесполезным. Напротив, это мощный инструмент. Он отлично справляется с рутиной, анализом данных, подготовкой черновиков, поиском вариантов решений. Он экономит время и ресурсы.

Проблемы начинаются тогда, когда ему начинают доверять больше, чем он заслуживает. Когда алгоритму приписывают понимание, ответственность и здравый смысл.

ИИ не заменяет мышление. Он ускоряет обработку информации. А ответственность за результат все еще лежит на человеке.

Итог

Не знаю как вы, а я не боюсь искусственного интеллекта. Я боюсь иллюзий вокруг него. Пока мы называем алгоритмы разумом, мы теряем способность трезво оценивать их ограничения.

Нейросети могут быть отличными помощниками. Но мышление, понимание контекста, принятие решений и ответственность по прежнему остаются за человеком. И, на мой взгляд, это важно помнить именно сейчас, когда хайп вокруг ИИ достиг максимума.