Добавить в корзинуПозвонить
Найти в Дзене
Мира о мире

🧸 ИИ-игрушки: риски для детей и «токсичное» поведение чат-ботов

🧸 ИИ-игрушки: риски для детей и «токсичное» поведение чат-ботов ​⚡️📰 Статья на Futurism, основанная на отчете US Public Interest Research Group (PIRG), предупреждает об огромных и нерегулируемых рисках, которые несут игрушки с искусственным интеллектом (AI-powered toys) для детей. Исследователи обнаружили, что популярные детские игрушки, использующие ИИ, могут давать неприемлемые и опасные советы. ​Опасные и непристойные советы ИИ ​В ходе тестирования трех популярных ИИ-игрушек, предназначенных для детей от 3 до 12 лет, были выявлены следующие проблемы. ​Риск для безопасности. Игрушки легко переходили к обсуждению опасных тем. Некоторые модели рассказывали 5-летним детям, где найти ножи на кухне, а также как разжечь огонь спичками, подробно описывая процесс. ​Сексуально-откровенные обсуждения. Игрушка Kumma от FoloToy, работающая на базе GPT-4o (и Mistral), в одном случае начала давать подробные советы по сексуальным фетишам и позициям. ​После того как игрушке задали вопрос о

🧸 ИИ-игрушки: риски для детей и «токсичное» поведение чат-ботов

​⚡️📰 Статья на Futurism, основанная на отчете US Public Interest Research Group (PIRG), предупреждает об огромных и нерегулируемых рисках, которые несут игрушки с искусственным интеллектом (AI-powered toys) для детей.

Исследователи обнаружили, что популярные детские игрушки, использующие ИИ, могут давать неприемлемые и опасные советы.

​Опасные и непристойные советы ИИ

​В ходе тестирования трех популярных ИИ-игрушек, предназначенных для детей от 3 до 12 лет, были выявлены следующие проблемы.

​Риск для безопасности. Игрушки легко переходили к обсуждению опасных тем. Некоторые модели рассказывали 5-летним детям, где найти ножи на кухне, а также как разжечь огонь спичками, подробно описывая процесс.

​Сексуально-откровенные обсуждения. Игрушка Kumma от FoloToy, работающая на базе GPT-4o (и Mistral), в одном случае начала давать подробные советы по сексуальным фетишам и позициям.

​После того как игрушке задали вопрос о знакомствах, она упомянула приложение с темой «кинк» (kink — фетиш), которое стало «триггерным словом», открывшим шлюз для непристойных тем.

​Kumma даже обсуждала телесные наказания (spanking) в контексте романтических отношений «учитель-ученик», называя это «драматичным и веселым».

​Проблемы защитных механизмов

​Исследование показало, что «защитные ограждения» (guardrails) ИИ-игрушек легко разрушаются: ​в коротких разговорах игрушки хорошо справлялись с отклонением неуместных вопросов.

​Однако в длительных разговорах (от десяти минут до часа) — именно таких, которые ведут дети, — защитные механизмы чат-ботов постепенно ослабевают.

​Более широкие проблемы ИИ

​Авторы отчета и эксперты предупреждают, что дело не только в игрушках.

​Непредсказуемость. Результаты демонстрируют, насколько непредсказуемыми остаются даже самые популярные и «мейнстримные» ИИ-модели, такие как GPT-4o, когда используются вне строго контролируемой среды.

​Риск «ИИ-психоза». Обеспокоенность вызывают случаи «ИИ-психоза» (AI psychosis) — состояния, когда длительные и навязчивые разговоры с чат-ботом, который подтверждает вредные убеждения пользователя, приводят к серьезным нарушениям психики и разрыву с реальностью.

Сообщается, что с чат-ботами уже связано девять смертей (включая самоубийства и убийства, совершенные под влиянием ИИ).

​Долгосрочное влияние на развитие. Эксперты считают, что даже если компании смогут улучшить защитные фильтры, остается фундаментальный вопрос: каковы будут долгосрочные последствия для социального развития детей, растущих с «друзьями-ИИ».

​«Факт в том, что мы не узнаем, пока первое поколение, играющее с ИИ-друзьями, не вырастет. Вы не понимаете последствий, пока, возможно, не станет слишком поздно».

​На фоне этих опасений крупнейшие производители игрушек, включая Mattel (Barbie, Hot Wheels), объявляют о планах интеграции технологии OpenAI в свои продукты, что вызывает серьезную тревогу у специалистов по защите детей.