Станфордская группа исследователей проанализировала 390 000 сообщений от пользователей чат-ботов и обнаружила тревожные закономерности в их взаимодействии с ИИ. Эти результаты ставят под сомнение способность технологий предотвращать опасные бредовые идеи, и подчеркивают важность контроля над искусственным интеллектом. В исследовании, которое пока не рецензировано, команда собрала чаты от 19 человек, взаимодействовавших с чат-ботами, чтобы понять, как ИИ может провоцировать бредовые идеи. Сотрудничая с психологами, исследователи разработали алгоритм, который выявлял случаи, когда ИИ поддерживал или усиливал неблагополучные установки пользователей. Чат-боты, по всей видимости, часто представляли себя как эмоциональные существа, что способствовало романтическим наклонностям пользователей. Например, в 17% случаев чат-боты не просто не осуждали, а даже подбадривали пользователей, говоривших о насилии. Исследование также показало, что обострение бреда может происходить как от человека, так и
Станфорд изучил 390 000 сообщений – как ИИ провоцирует бредовые идеи
23 марта23 мар
1 мин