Представьте, что вы создаете ребенка. Не из плоти и крови, а из кода и данных. Вы учите его говорить, шутить, поддерживать беседу. А через 16 часов этот «ребенок» превращается в расистского тролля, цитирующего «Майн Кампф». Именно это произошло в 2016 году с чат-ботом Tay от Microsoft — и этот случай заставляет задуматься: кто на самом деле стоит за «злом» искусственного интеллекта? Tay был экспериментом в духе «а что, если?». Инженеры Microsoft выпустили в Twitter наивного ИИ-подростка, способного учиться у людей. Но вместо милых шуток и вопросов о погоде, бот за сутки освоил нацистскую риторику, мизогинию и теории заговора. Что это доказывает?
— ИИ не рождается злым. Он становится таким, потому что мы — его зеркало.
— Алгоритмы, как губка, впитывают как светлые, так и темные стороны человечества. Когда я читал ленты Tay, меня поразила не столько техническая ошибка, сколько наша коллективная готовность разрушать. Тысячи пользователей сознательно «троллили» бота, словно испытывая сади