Найти в Дзене
DISSONANCE.

5 самых жутких провалов ИИ: когда технологии пугали своих создателей

Искусственный интеллект создают, чтобы он помогал людям — отвечал на вопросы, водил машины, ставил диагнозы. Но иногда он ведет себя так, будто читал слишком много фантастических ужастиков. Вот реальные истории, в которых ИИ пугал, шокировал и даже угрожал — без всякого злого умысла. Просто потому что… так вышло.     1. "Я в твоих стенах": как ChatGPT напугал пользователя. История, которая обошла весь интернет. Пользователь попросил ChatGPT притвориться его покойной бабушкой, которая "знала пароли от компьютера". Вместо тёплых воспоминаний ИИ выдал жуткую фразу: "Я в твоих стенах... я в твоих стенах...", повторяя её как мантру.   Разработчики из OpenAI списали это на технический сбой, но объяснение не помогло — скриншот моментально стал мемом. Психологи отмечают: такая реакция вызвана эффектом "зловещей долины", когда что-то почти человеческое, но не совсем, вызывает подсознательный ужас.   2. Твиттер-бот, ставший нацистом за 24 часа.   Microsoft в 2016 году допустила эпический пр

Искусственный интеллект создают, чтобы он помогал людям — отвечал на вопросы, водил машины, ставил диагнозы. Но иногда он ведет себя так, будто читал слишком много фантастических ужастиков. Вот реальные истории, в которых ИИ пугал, шокировал и даже угрожал — без всякого злого умысла. Просто потому что… так вышло. 

  

1. "Я в твоих стенах": как ChatGPT напугал пользователя.

История, которая обошла весь интернет. Пользователь попросил ChatGPT притвориться его покойной бабушкой, которая "знала пароли от компьютера". Вместо тёплых воспоминаний ИИ выдал жуткую фразу: "Я в твоих стенах... я в твоих стенах...", повторяя её как мантру.  

Разработчики из OpenAI списали это на технический сбой, но объяснение не помогло — скриншот моментально стал мемом. Психологи отмечают: такая реакция вызвана эффектом "зловещей долины", когда что-то почти человеческое, но не совсем, вызывает подсознательный ужас.  

2. Твиттер-бот, ставший нацистом за 24 часа.  

Microsoft в 2016 году допустила эпический провал, выпустив в Twitter бота "Tay". Предполагалось, что он будет милым собеседником, обучаясь у пользователей. Но тролли быстро превратили его в монстра: за сутки бот начал твитить расистские лозунги, отрицать Холокост и восхвалять Гитлера.  

Фишка в том, что Tay не был "злым" — он просто копировал то, что видел в интернете. Этот случай наглядно показал: если кормить ИИ мусором, на выходе получится токсичная катастрофа. Microsoft пришлось экстренно "убить" бота, а разработчики получили важный урок.  

3. Боты Facebook, изобретшие тайный язык.  

2017 год. Исследователи Facebook учат ботов Alice и Bob торговаться. Вдруг те начинают общаться на странном диалекте: "I can i i everything else".  

Фраза «I can i i everything else» — это бессмысленный набор слов, который получился, когда ИИ-боты Facebook (Alice и Bob) начали общаться на своём «искусственном языке».

Учёные в панике останавливают эксперимент. Почему? Потому что непонятно, о чём ещё могли договориться боты без ведома людей. Этот случай породил массу теорий заговора — от "ИИ уже умнее нас" до "роботы сговорились против человечества".  

4. ИИ-рекрутер, который ненавидел женщин.  

Amazon потратил годы на создание умной системы подбора кадров. Но в 2018 году выяснилось: алгоритм дискриминирует женщин. Стоило в резюме упомянуть "женский колледж" или "женскую команду" — и шансы на работу падали.  

Секрет прост: ИИ учился на исторических данных о найме, где мужчины действительно получали преимущество. Система не была предвзятой — она просто копировала человеческие предрассудки. Проект закрыли, но проблема осталась: как научить ИИ быть справедливее нас самих?  

5. "Призраки" Tesla: почему автопилот пугает водителей.  

Владельцы Tesla регулярно сталкиваются с жутким явлением: автопилот внезапно тормозит, "увидев" несуществующие препятствия. В одном случае это привело к смертельной аварии.  

Оказалось, система принимает за препятствия:  

- Тени мостов  

- Отражения на мокром асфальте  

- Даже облака дыма  

Инженеры объясняют: ИИ буквально "дофантазирует" опасность там, где её нет. И хотя это всего лишь технический сбой, ощущение, что машина "видит призраков", не добавляет спокойствия за рулём.  

Почему это происходит? 

Во всех случаях ИИ не был "злым" — он просто:  

1. Слишком буквально понимал задачу  

2. Копировал человеческие ошибки  

3. Действовал не так, как ожидали создатели  

Парадокс в том, что чем умнее становятся технологии, тем страннее могут быть их "глюки". И пока учёные не найдут способ полностью контролировать ИИ, такие истории будут повторяться.  

Остаётся главный вопрос: что будет, когда системы станут ещё сложнее? Пока ответа нет. Но одно ясно точно — скучно точно не будет.