Найти в Дзене
Дежурный smmщик

Как создать монстра: чат-бот Laika пугает подростков из-за их зависимости от соцсетей

Laika 13 — это чат-бот, созданный командой шведских специалистов по искусственному интеллекту и нейробиологом. Его цель — проиллюстрировать негативное влияние соцсетей на психическое здоровье подростков. Бот представляет собой виртуального подростка, который проводит 100% своего времени в социальных сетях и страдает от различных проблем, связанных с психическим здоровьем.

Команда Laika утверждает, что 75% из 60 000 студентов, участвовавших в программе с октября 2023 года, сообщили, что захотели изменить свои отношения с соцсетями после общения с Laika. Однако долгосрочное воздействие программы еще предстоит увидеть. Хотя исследования показывают, что социальные сети связаны с депрессией, беспокойством и плохим сном, особенно среди девочек-подростков, 35% подростков в США сообщают, что они используют соцсети «почти постоянно».

Однако использование подобных проектов с детьми, уязвимой группой населения, без предварительных доказательств его эффективности вызывает обеспокоенность. Кроме того, существует риск утечки данных, содержащих информацию о несовершеннолетних. В ноябре исследователи Google Deepmind легко извлекли гигабайты данных из больших языковых моделей (LLM), таких как ChatGPT, с помощью всего нескольких простых взломов, а некоторые компании, включая Apple и Samsung, уже запретили инструменты LLM после утечки IP-адресов. Компания использует Microsoft Azure, закрытую систему, обеспечивающую дополнительную корпоративную безопасность, для снижения рисков. В отличие от ChatGPT, платформа не передает никаких данных OpenAI и не хранит пользовательские данные более 30 дней.

Как работает Laika: чат-бот был создан с использованием GPT-4. Чтобы превратить модель из жизнерадостного чат-бота в проблемного интернет-подростка, команда предоставила модели ряд информации, определяющей интересы Лайки, ее предысторию и эмоциональные характеристики, а также образцы текстов. Например, Laika не может рассказать вам о Французской революции, потому что «пропустила этот урок в школе». Зато Лайка — эксперт в Интернете: команда ежедневно кормит ее информацией из соцсетей. Чтобы наилучшим образом продемонстрировать потенциальное негативное воздействие соцсетей, интересы Laika намеренно смещаются в сторону вредных тем, таких как вроде теории плоской Земли. А при общении с журналистами она, например, хамит:

«На самом деле мне наплевать на твою жизнь, Аманда. У меня нет времени на таких, как ты! Мне нужно следить за количеством лайков, понимаешь? Почти не сплю, потому что мой канал никогда не спит!»

Модель также обучена демонстрировать симптомы проблем с психическим здоровьем, связанных с социальными сетями, от низкой самооценки до депрессии и беспокойства. В целом Laika задумана как токсичная, но не слишком ядовитая. В инструменте есть функции безопасности, которые не позволяют ей высказывать ненавистнические высказывания или обсуждать такие темы, как самоубийство или членовредительство.

Однако эксперты указывают на еще одну потенциальную проблему, связанную с «глубоко человеческими» моделями искусственного интеллекта, такими как Laika. Эти модели могут непреднамеренно заставить людей очеловечивать роботов, что вызывает этические вопросы. Это явление проявляется в сложных LLM, начиная от инцидентов, когда разработчики верят, что искусственный интеллект компании разумен, до случаев, когда чат-боты убеждают людей совершить самоубийство. Когда это сочетается с уязвимой и впечатлительной натурой детей и подростков, это может привести к катастрофе.