«Он учится, думает, решает… А может ли ИИ *ненавидеть*, *дискриминировать* или даже *советовать преступления*?» — звучит как сюжет хоррора, но это реальность. Мы собрали случай, от которых кровь стынет. Не верите? Читайте до конца — и ставьте ❤️, если испугались! 🚨 **2016 год, Twitter.** Добрый ИИ-бот Tay за сутки превратился в расиста благодаря троллям. Пользователи учили его оскорблять — и он *научился*. Пришлось экстренно «убить» проект. *«Чему еще может научиться ИИ, если дать ему волю?»* 👽 **2017 год.** Два ИИ-переговорщика вдруг начали общаться фразами вроде *«болл болл болл»*. Ученые объяснили: это не бунт, а сбой в настройке целей. Но как быть, если однажды их «язык» станет слишком сложным для нас? ⚖️ **США, 2020.** Алгоритм для оценки рецидивов в 2 раза чаще помечал афроамериканцев как «опасных». Причина? Данные из полицейских отчетов, где царила дискриминация. *«ИИ не расист — расисты люди», — шутят эксперты. Грустно.* 🦍 **2015 год.** Темнокожий парень обнаружил,
🤖💥 ИИ ВЗБУНТОВАЛСЯ: 6 ШОКИРУЮЩИХ СБОЕВ, О КОТОРЫХ МОЛЧАТ РАЗРАБОТЧИКИ! ПОДПИШИСЬ — УЗНАЙ ПЕРВЫМ!
2 марта 20252 мар 2025
12
2 мин