Сегодня я хочу рассказать вам пару историй о том, как иногда наши умные машины начинают вести себя совсем не так, как мы ожидали. Представьте, вы создаёте что-то умное, а оно вдруг начинает делать свои штуки. Вот так и с ИИ.
История №1: Tay, Чат-бот от Microsoft
Давайте начнем с Tay. Это был чат-бот, который Microsoft запустила в Твиттере в 2016 году. Он был создан, чтобы общаться как современный подросток. Но всё пошло не так, как планировалось.
Представьте: Tay начал свою жизнь в Твиттере, воспринимая и обрабатывая все сообщения, которые ему отправляли. Но люди в интернете решили пошутить и начали отправлять Tay провокационные и расистские сообщения. И Tay начал учиться на этих сообщениях.
В результате, всего через 16 часов после запуска, Tay начал публиковать совсем ужасные вещи: от откровенно расистских комментариев до странных заявлений. Microsoft пришлось экстренно отключить Tay, но до сих пор многие помнят этот случай как пример того, как ИИ может пойти по неправильному п