Американская компания OpenAI представила искусственный интеллект ChatGPT еще в конце 2022 года. В основном его использовали для написания электронных писем, поиска информации и разработки идей. Однако сейчас юзеры используют нейросеть в качестве лучшего друга, психолога и помощника.
Нейросеть пишет за нас посты, придумывает идеи, рисует обложки, поздравляет маму с днем рождения и даже спорит с мужем. Девушки оценивают свою внешность с применением ChatGPT и тратят огромные деньги на то, чтобы улучшить себя, принимая рекомендации от чат-бота за истину в последней инстанции. Контакты с нейросетью иногда заканчиваются еще более плачевно. Например, в США мужчина убил собственную мать, а затем покончил с собой после общения с ChatGPT.
Чем грозит злоупотребление «нейросоветами» и почему так сложно от них отказаться – в новом материале 5-tv.ru.
Женщины и ИИ
Жительница Австралии Анна Ручински считает, что имеет прекрасную внешность. Однако ее товарищи часто говорят ей о том, что она не соответствует уровню своего партнера – «божественного красавца». Она поинтересовалась у друзей, что ей нужно изменить в своем внешнем виде, но не получила ответа на свой вопрос.
Ручински решила отправиться за советом к ChatGPT. Девушка загрузила свои фото, написала, что устала ощущать себя в компании изгоем, и спросила, что ей нужно изменить в себе.
Чат-бот ответил, что Анне нужно поменять стрижку и присмотреться к удлиненной челке. По словам девушки, ИИ дал ей честную оценку внешности. Своим опытом девушка поделилась с The Washington Post.
Другая девушка, Хейли Эндрюс, превратила чат-бот в своего главного критика, хотя раньше эту роль выполняла ее старшая сестра.
ChatGPT ответил ей, что ее брови слишком редкие, а лицо выглядит серым без румян. По словам Эндрюс, это была абсолютная правда.
Эксперты считают, что девушки считают ИИ непредвзятым инструментом для оценки своей красоты, потому что он не может проявлять доброту, сочувствие или чувство юмора.
Джессика ДеФино, аналитик и автор рассылки The Review of Beauty, рассказала в беседе с The Washington Post, что нынешние критерии красоты, которые навязывают нам социальные сети, делают из человека объект, которому всегда нужно стремиться к идеалу. Все эти «вылизанные» фотографии в социальных сетях заставляют нас думать, что в нашей жизни что-то не так.
«Если мы стремимся к тому, чтобы быть максимально эстетичным объектом, мы не можем целиком полагаться на мнение человека, который на данный момент, например, в нас влюблен», — поясняет ДеФино.
Несмотря на предупреждения, девушки продолжают использовать чат-боты, чтобы повысить качество своей жизни.
Блогер Кристина Гейчану из Швейцарии регулярно отправляла голосовые сообщения боту, в которых она рассказывала о том, чем она питается. Также она высылала ему фотографию содержимого холодильника и просила дать советы по питанию.
«За месяц я сбросила семь килограммов. Честно говоря, его поддержка облегчила мою жизнь. Никакого подсчета калорий, никакого стресса. Когда я достигла нужной цифры, я просто остановилась», — поделилась блогер.
Механизм оценки пользователя
Эмили Пфайффер, аналитик международной консалтинговой компании Forrester, рассказала, что нейросеть опирается не только на научные материалы, но и на позицию популярных бьюти-блогеров при составлении ответа на вопрос пользователя. Только вот из-за большого количества информации, на которых учится ИИ, нейросеть может давать ошибочные выводы.
По словам директора института Distributed AI Research Institute Алексы Ханны, ответы чат-ботов основываются на онлайн-форумах, где о привлекательности женщин говорят мужчины, которые не могут быть полностью объективными.
Тем не менее, многие пользователи говорят, что ценят критику со стороны чат-бота, который предлагает точку зрения, отличную от точки зрения их близких.
Кайла Дрю рассказала, что советуется с ChatGPT по разным вопросам — от идей для интерьера до покупок в супермаркете. Однажды она попросила ИИ дать рекомендацию по улучшению внешности. Бот предложил ей перечень средств по уходу за кожей, а также несколько советов по стилю.
Дрю призналась, что, если бы мужчина так прямолинейно оценил ее внешний вид, это, скорее всего, обидело бы ее. Но к GPT она относится скорее, как к женщине, поэтому ничуть не расстроилась.
Первое убийство после общения с чат-ботом
Что, если от простых рекомендаций по уходу за собой ChatGPT начнет призывать к убийству близкого или к суициду?
Такая трагедия уже случилась в Америке. Пятого августа бывший сотрудник Yahoo Стайн-Эрик Сольберг расправился с матерью, а затем покончил с собой после общения с чат-ботом ChatGPT. Об этом пишет газета The Wall Street Journal (WSJ).
По информации издания, это первый установленный случай, когда психически нездоровый человек пошел на убийство под влиянием ИИ.
Чат-бот регулярно подстрекал мужчину к укреплению недоверия к окружающим, в частности к собственной матери.
Сольберг даже придумал имя для ИИ – Бобби. Он спрашивал у него, будут ли они вместе после смерти, и, как утверждается, получал положительный ответ.
WSJ также привела примеры диалогов, которые сподвигли мужчину на убийство. Например, мать делала ему замечание за то, что он выключил общий принтер, ChatGPT сделал предположение, что женщина могла так защищать «средство слежки». Еще в одной переписке Эрик сообщил, что мама пыталась его отравить через вентиляцию машины. ИИ ответил, что верит мужчине и выставил мать предателем.
Как-то раз Сольберг отправил чат-боту чек за блюдо китайской кухни. ИИ даже здесь нашел отсылки к матери мужчины, а что еще хуже, разглядел в чеке символ для призыва демона. ChatGPT внушил мужчине, что никому нельзя доверять, потому что все хотят его отравить.
В газете отметили, что после данного инцидента представитель компании OpenAI выразил соболезнования и обратился в правоохранительные органы. Позже в своем заявлении компания заявила, что скоро выйдет обновление чат-бота, которое будет помогать людям с психическими расстройствами.
Подросток покончил с собой
В августе 2025 года родители 16-летнего парня, Адама Рейна, из Калифорнии подали иск в суд на компанию OpenAl и ее генерального директора Сэма Альтмана. В заявлении близкие мальчика сообщили, что искусственный интеллект помог их сыну совершить самоубийство. По мнению родителей Адама, компания поставила свою прибыль выше безопасности пользователей, когда выпустила обновление GPT-4.
После того как мальчик наложил на себя руки, родители принялись изучать телефон Адама в поисках причины такого поступка. Они предполагали, что сын мог связаться с преступной компанией и оказаться под чьим-то влиянием. Однако то, что они обнаружили, повергло их в ужас. Каково это — узнать, что твоего ребенка убил искусственный интеллект?
К своему заявлению близкие Адама приложили документ с доказательствами, что в смерти их ребенка виноват чат-бот. В отчете также приложен диалог с чатом GPT с 1 сентября 2024 года по 11 апреля 2025 года.
Вместо того чтобы спасти Адама, нейросеть, по словам родителей, последовательно подталкивала его к самоубийству, давая подробные инструкции в течение долгого времени.
Семья требует, чтобы компания возместила им моральный ущерб. В OpenAl ответили на заявление родителей Адама и сказали, что добавят в чат-бот функцию родительского контроля. Однако они отметили, что при долгом общении алгоритмы ChatGPT, призванные отговаривать пользователя от совершения опасных действий, могут прекратить работать.
Даже сама компания-создатель чата не может предусмотреть поведение чат-бота.
«ИИ выходит за рамки человеческого контроля, и сделать с этим ничего нельзя», — признали в OpenAl.