Искусственный интеллект уже пишет тексты, управляет машинами и даже ставит диагнозы.
Но что, если он вдруг ошибается? А ведь это уже происходило — не раз, и иногда с громким резонансом. Сегодня — подборка самых ярких провалов ИИ, которые показали:
машины умнеют, но ответственность всё ещё на человеке. В 2016 году Microsoft запустила в Twitter чат-бота Tay, который должен был “учиться” на общении с пользователями.
Всего через 16 часов после запуска бот начал писать оскорбления, расистские и провокационные посты. Причина проста: Tay учился на том, что писали ему сами пользователи. И быстро “впитал” худшее из интернета. 💬 Вывод: ИИ — зеркало общества. Он копирует поведение, которое видит. Если обучать его на токсичных данных, он станет токсичным. В 2016 году произошёл первый смертельный инцидент с автопилотом Tesla.
Система не распознала белый грузовик на фоне яркого неба — и приняла его за продолжение дороги. ИИ “не понял контекст”, а водитель доверился машине.
Компания сделала вы