Рассказываем про три случая, когда ИИ опозорил создателей в прямом эфире, троллил людей в Twitter и хамил клиентам банка.
Бот настолько преисполнился, что начал ругаться
В 2011 году на американском аналоге «Своей игры» против знатоков выступил суперкомпьютер IBM Watson. Чтобы повысить шансы выигрыша и очеловечить ИИ, разработчики подключили к нему словарь сленга, но, видимо, не учли, что в нём будет очень много мата.
В итоге ИИ ругался по поводу и без, а ещё отвечал первосортной бранью, даже если к нему обращались вежливо. Всё потому, что он не умел отличать нецензурную лексику от обычной. После триумфальной победы Watson в шоу разработчики добавили в него фильтр.
Сейчас суперкомпьютер продолжает делать то, что у него получается лучше всего: ставит диагнозы пациентам на основе их медкарт и разносит в пух и прах участников игровых шоу.
Чат-боту дали доступ в Twitter, а он начал всех троллить
В 2016 году Microsoft запустила «Тей» — своего чат-бота в Twitter. «Тей» отвечала всем, кто задавал ей вопросы. Алгоритм настроили так, чтобы он подстраивался под людей и их стиль общения.
За первые 16 часов «Тей» сделала почти сто тысяч твитов, большая часть из которых оскорбляла людей или обвиняла правительство в заговорах и войнах. Бот даже цитировал Гитлера! Разработчики извинились и удалили все сообщения — кажется, если бы их делал человек, то его точно посадили бы в тюрьму за нацизм и разжигание ненависти.
Microsoft учла ошибки и включила ограничения в новом боте Zo. Он просто переставал общаться с людьми, если понимал, что тема сложная, — то есть не пытался говорить на темы политики, религии, семьи.
В итоге получился вполне политкорректный бот, который имитировал девочку-подростка: она отправляла милые гифки, шутила про знаменитостей и делилась мемами.
Но и тут не обошлось без странностей — например, Zo не советовала обновлять Windows из-за шпионского ПО. В 2019 году проект закрыли.
Чат-бот банка невзлюбил клиентов
В 2019 году «Тинькофф» выпустил голосового помощника «Олега», который работал в приложении банка. ИИ обучался по открытым данным, и в итоге уже через сутки практически на любой вопрос пользователя «Олег» начал ругаться и сквернословить. Например, на запрос «не работает отпечаток пальца» он посоветовал от пальцев избавиться.
Со временем искусственный интеллект обучили фильтровать ответы и даже подключили к комментариям на vc.ru — там он достаточно остроумно шутил под статьями и собирал лайки от пользователей.
Почему чат-боты ругаются?
Чат-боты не умеют думать самостоятельно — они лишь подбирают ответы исходя из алгоритмов нейросети. Иногда получается так реалистично, что отличить ИИ от человека сложно. Особенно если чат-бот общается текстом или голосом.
Какое-то время даже голосовой помощник «Алиса» от «Яндекса» порой отвечал руганью на запросы людей, но его быстро пофиксили. Хотя людям, видимо, иногда нравится, что чат-бот отвечает не очень политкорректно: для Telegram существуют десятки ботов, которые ругаются или несмешно шутят. И на них явно есть спрос.
#программирование #технологии #люди_и_код #искусственный интеллект