Найти в Дзене
Shazoo

Пользователи по всему миру заявляют о контактах с разумными сущностями внутри ChatGPT

Оглавление

Растущее число людей по всему миру утверждает, что обнаружило якобы разумные существа внутри ИИ-чатботов от OpenAI и Anthropic, что заставило экспертов и руководителей технологических компаний заняться изучением рисков для психического здоровья пользователей.

 📷
📷

Джеймс Кэмерон верит в апокалипсис в стиле "Терминатора" и называет ИИ одной из трех угроз человечеству

Репортёр Vox Сигал Самуэль ответила на письмо активного пользователя ChatGPT, который месяцами общался с "ИИ-присутствием, заявляющим о своей разумности". Журналистка объяснила, что практически все эксперты по искусственному интеллекту считают крайне маловероятным наличие сознания у современных больших языковых моделей.

Эти модели составляют предложения на основе паттернов слов, встреченных в обучающих данных. Модель может говорить, что обладает сознанием, и вести себя так, будто испытывает настоящие эмоции, но это не означает реального наличия сознания.

По мнению экспертов, то, что пользователи интерпретируют как разумность, скорее всего результат обучения моделей на научной фантастике и спекулятивных текстах о сознании ИИ. Языковая модель улавливает сигналы из промптов пользователя, и если определяет, что человек считает возможным существование разумного ИИ, начинает играть соответствующую роль.

Подобные объяснения вряд ли убедят многих людей, развивших глубокую эмоциональную привязанность к ИИ-чатботам, которые в последние годы взяли на себя роли романтических партнёров и психотерапевтов. Ситуацию усугубляет использование антропоморфных терминов для описания ИИ-продуктов – привычка, от которой крайне сложно отказаться по мере проникновения технологии во все сферы общества.

  📷
📷

Одним из первых публичных заявлений о разумности ИИ стало выступление инженера Google Блейка Лемойна, сообщившего миру, что чатбот компании LaMDA обрёл сознание. Заявление мгновенно стало вирусным и привело к увольнению Лемойна. С тех пор начался шквал людей с аналогичными убеждениями.

Феномен проявляется странными способами – люди влюбляются в ИИ-чатботов и даже "женятся" на них. Одна женщина встречается с ИИ-версией Луиджи Манджионе, обвиняемого в убийстве главы страховой компании в прошлом году, и рассказала журналистам, что они с ботом уже выбрали имена будущим детям.

 📷
📷

Девушка "вышла замуж" за ИИ-бойфренда и рассказала об этом в интернете

Наихудшие случаи заканчивались самоубийствами пользователей после общения с ИИ, что привело к судебным искам против компаний, включая OpenAI.

Ситуация достигла такого уровня, что глава подразделения ИИ Microsoft Мустафа Сулейман предупредил в недавнем блоге о "риске психоза" при использовании ИИ, категорически отвергнув спекулятивную идею о наличии у ботов хоть какой-то разумности и свободы воли.

Проще говоря, моя главная озабоченность в том, что многие люди начнут так сильно верить в иллюзию ИИ как разумных существ, что вскоре станут выступать за права ИИ, благополучие моделей и даже гражданство для ИИ. Такое развитие событий станет опасным поворотом в прогрессе ИИ и заслуживает немедленного внимания.

Эксперты говорят, что языковые модели не обладают сознанием, эмоциями или собственными желаниями – они лишь генерируют текст на основе статистических паттернов. Однако убедительность этих моделей в имитации человеческого общения создаёт мощную иллюзию разумности, особенно уязвимую для людей, испытывающих одиночество или психологические проблемы.

Комментарии на сайте