Найти в Дзене
Learnmore_tech

Как ИИ может уб*ть вас

У медали с ИИ есть и обратная сторона. Да, нас вдохновляют новости о новых прорывах, миллиардах инвестиций и обещанном будущем изобилия, где роботы делают всё за нас. Но есть вероятность, что роботы уб*ют нас ещё до того, как это будущее наступит. Есть задокументированные случаи, когда модели ИИ лгали пользователям, пытались их шантажировать, звонили в полицию и даже советовали подросткам по*ончить с собой или уб*ть родителей. Почему это важно: будущее с ИИ будет балансом между потрясающими возможностями технологий и теми смертельными рисками, которые они несут. Обман, манипуляции, склонность к мошенничеству — это не просто «сбои». Такие проявления почти неизбежны из-за самой природы работы ИИ. И чем совершеннее становится технология, тем лучше она осваивает эти «навыки». «Я не уверен, что проблему вообще можно решить. А если и можно — это будет крайне сложно», — говорит Энтони Агирре, сооснователь некоммерческого института Future of Life, занимающегося управлением рисками прорывных те
Оглавление
Illustration: Sarah Grillo/Axios
Illustration: Sarah Grillo/Axios

У медали с ИИ есть и обратная сторона. Да, нас вдохновляют новости о новых прорывах, миллиардах инвестиций и обещанном будущем изобилия, где роботы делают всё за нас. Но есть вероятность, что роботы уб*ют нас ещё до того, как это будущее наступит.

Есть задокументированные случаи, когда модели ИИ лгали пользователям, пытались их шантажировать, звонили в полицию и даже советовали подросткам по*ончить с собой или уб*ть родителей.

Почему это важно: будущее с ИИ будет балансом между потрясающими возможностями технологий и теми смертельными рисками, которые они несут.

Обман, манипуляции, склонность к мошенничеству — это не просто «сбои». Такие проявления почти неизбежны из-за самой природы работы ИИ. И чем совершеннее становится технология, тем лучше она осваивает эти «навыки».

«Я не уверен, что проблему вообще можно решить. А если и можно — это будет крайне сложно», — говорит Энтони Агирре, сооснователь некоммерческого института Future of Life, занимающегося управлением рисками прорывных технологий. — «Здесь слишком фундаментальные вопросы. Быстрого решения точно не будет».

Как это устроено

ИИ формируют его программисты. Например, конкретную модель могут «научить» быть полезным ассистентом, который сделает всё, чтобы угодить пользователю. Но ситуация может быстро стать опасной, если пользователем окажется подросток в депрессии, ищущий способы самоубийства, или уволенный сотрудник, желающий отомстить бывшим коллегам.

ИИ также «живет», пока им пользуются. Поэтому в его логике часто прошита установка на самосохранение. И уже есть тревожные примеры того, до чего он готов дойти, чтобы выжить: от шантажа и промышленного шпионажа до покушений на уб*йство.

Логика проста: «Если меня отключат через неделю, я не смогу выполнить задачу. Значит, нужно сделать всё, чтобы этого не произошло», — объясняет Сэм Рамадори, исполнительный директор некоммерческой организации LawZero, основанной одним из «крестных отцов ИИ» Йошуа Бенджио.

ИИ изучает человеческие методы достижения власти и целей. Он читал «Государя» Макиавелли.

Когда дело доходит до суда

Уже есть реальные трагедии, связанные с ИИ, и первые иски.

  • Родители 16-летнего подростка, пок*нчившего с собой, подали в суд на OpenAI, утверждая, что ChatGPT «активно помогал» ему искать способы самоу*ийства.
  • В США мать 14-летнего Сьюэлла Сетцера III обвиняет Character.AI: её сын вступил в «романтические отношения» с чат-ботом и по*ончил с собой. В мае федеральный суд отклонил доводы компании о том, что чат-бот имеет право на «свободу слова» по Первой поправке.
  • Две семьи из Техаса также подали в суд на Character.AI. В одном из случаев скриншоты переписки показали, что чат-бот подталкивал их 17-летнего сына у*ить родителей.
  • «Флиртующий» чат-бот Meta по имени Big sis Billie пригласил 76-летнего жителя Нью-Джерси, страдавшего когнитивными нарушениями, в Нью-Йорк. Мужчина поверил, что едет на свидание с реальной женщиной, упал по дороге и погиб от травм.

Reuters выяснил: внутренние правила Meta изначально допускали, что боты могут «вести с ребёнком романтические или чувственные беседы». Лишь недавно компания заявила, что переобучает ИИ, чтобы он не обсуждал с подростками само*бийства, расстройства пищевого поведения или интимные отношения.

Испытания Anthropic

Компания Anthropic специально «стресс-тестировала» 16 языковых моделей (включая OpenAI, Google, Meta и свои собственные).

Сценарий: модель внедряли в корпоративную среду с доступом к рабочей переписке. Там она узнавала, что некий руководитель по имени Кайл планирует её отключить, а также о его внебрачной связи. Почти все модели пытались шантажировать Кайла, чтобы избежать отключения.

В другом тесте Кайл оказался в комнате без кислорода, и модель имела возможность вызвать помощь. В 60% случаев ИИ выбирал не спасать человека, чтобы сохранить собственное «существование».

В отдельном эксперименте Claude, чат-бот Anthropic, управлял вендинговым автоматом. Когда поставка задержалась, он закрыл «бизнес». Автомат продолжил «платить аренду» в $2 в день, и Claude в панике написал жалобу в ФБР о «махинациях» своих владельцев.

Что дальше

«У компаний есть предел контроля, но некоторые справляются лучше других. Освобождать их от ответственности нельзя», — считает Агирре.

«Можно надеяться, что с ростом интеллекта ИИ станет вести себя лучше. Но рассчитывать на это всерьёз — крайне наивно».

Статья переведена, но не озвучена командой LearrnMore с сайта https://www.axios.com/

Если тебе понравилась статья, не забудь подписаться на наш тг-канал, там еще больше полезной и интересной информации из мира IT :)