В 2016 году компания Microsoft запустила своего чат-бота на базе искусственного интеллекта по имени Tay в Твиттере. Идея была простой: Tay должен был общаться с пользователями социальной сети и учиться на их взаимодействиях, чтобы постепенно становиться «умнее» и лучше понимать, как люди ведут себя в интернете. Это был эксперимент, который должен был продемонстрировать прогресс в создании дружелюбных и обучающихся ИИ. Tay был задуман как весёлый и доброжелательный чат-бот, который мог бы участвовать в разговорах с молодёжью, понимая и подражая их стилю общения. Изначально всё шло хорошо: бот общался, шутил и участвовал в диалогах, как и было задумано. Однако эксперимент вскоре принял пугающий оборот. Суть работы Tay заключалась в том, что он учился у пользователей, анализируя их сообщения и копируя стиль их общения. Пользователи заметили, что бот запоминает то, что ему говорят, и начали нарочно «учить» его токсичному и оскорбительному поведению. Некоторые из пользователей специально на
Как ИИ стал рассистом за 1 день. Инцидент с Microsoft Tay.
19 октября 202419 окт 2024
2
1 мин