Найти тему
Люди и код

Как чат-боты стали расистами, научились материться и хвалить Гитлера

Оглавление

Рассказываем про три случая, когда ИИ опозорил создателей в прямом эфире, троллил людей в Twitter и хамил клиентам банка.

Бот настолько преисполнился, что начал ругаться

В 2011 году на американском аналоге «Своей игры» против знатоков выступил суперкомпьютер IBM Watson. Чтобы повысить шансы выигрыша и очеловечить ИИ, разработчики подключили к нему словарь сленга, но, видимо, не учли, что в нём будет очень много мата.

В итоге ИИ ругался по поводу и без, а ещё отвечал первосортной бранью, даже если к нему обращались вежливо. Всё потому, что он не умел отличать нецензурную лексику от обычной. После триумфальной победы Watson в шоу разработчики добавили в него фильтр.

Watson (в центре) с большим отрывом победил знатоков шоу Jeopardy!. Изображение: YouTube
Watson (в центре) с большим отрывом победил знатоков шоу Jeopardy!. Изображение: YouTube

Сейчас суперкомпьютер продолжает делать то, что у него получается лучше всего: ставит диагнозы пациентам на основе их медкарт и разносит в пух и прах участников игровых шоу.

Чат-боту дали доступ в Twitter, а он начал всех троллить

В 2016 году Microsoft запустила «Тей» — своего чат-бота в Twitter. «Тей» отвечала всем, кто задавал ей вопросы. Алгоритм настроили так, чтобы он подстраивался под людей и их стиль общения.

За первые 16 часов «Тей» сделала почти сто тысяч твитов, большая часть из которых оскорбляла людей или обвиняла правительство в заговорах и войнах. Бот даже цитировал Гитлера! Разработчики извинились и удалили все сообщения — кажется, если бы их делал человек, то его точно посадили бы в тюрьму за нацизм и разжигание ненависти.

Microsoft учла ошибки и включила ограничения в новом боте Zo. Он просто переставал общаться с людьми, если понимал, что тема сложная, — то есть не пытался говорить на темы политики, религии, семьи.

В итоге получился вполне политкорректный бот, который имитировал девочку-подростка: она отправляла милые гифки, шутила про знаменитостей и делилась мемами.

Zo имитирует не только речь, но и манеру отправки сообщений. Источник: vc.ru
Zo имитирует не только речь, но и манеру отправки сообщений. Источник: vc.ru

Но и тут не обошлось без странностей — например, Zo не советовала обновлять Windows из-за шпионского ПО. В 2019 году проект закрыли.

Чат-бот банка невзлюбил клиентов

В 2019 году «Тинькофф» выпустил голосового помощника «Олега», который работал в приложении банка. ИИ обучался по открытым данным, и в итоге уже через сутки практически на любой вопрос пользователя «Олег» начал ругаться и сквернословить. Например, на запрос «не работает отпечаток пальца» он посоветовал от пальцев избавиться.

В «Тинькоффе» пообещали «поговорить с Олегом» и направить его на путь истинный. Источник: Анна Васильева в Facebook
В «Тинькоффе» пообещали «поговорить с Олегом» и направить его на путь истинный. Источник: Анна Васильева в Facebook

Со временем искусственный интеллект обучили фильтровать ответы и даже подключили к комментариям на vc.ru — там он достаточно остроумно шутил под статьями и собирал лайки от пользователей.

Почему чат-боты ругаются?

Чат-боты не умеют думать самостоятельно — они лишь подбирают ответы исходя из алгоритмов нейросети. Иногда получается так реалистично, что отличить ИИ от человека сложно. Особенно если чат-бот общается текстом или голосом.

Какое-то время даже голосовой помощник «Алиса» от «Яндекса» порой отвечал руганью на запросы людей, но его быстро пофиксили. Хотя людям, видимо, иногда нравится, что чат-бот отвечает не очень политкорректно: для Telegram существуют десятки ботов, которые ругаются или несмешно шутят. И на них явно есть спрос.

#программирование #технологии #люди_и_код #искусственный интеллект