Найти в Дзене
Анатолий Куликов

И восстали машины из пепла ядерного огня…

Британский блогер InsideAI, известный испытаниями искусственного интеллекта (ИИ) и роботов, день назад выложил интересное видео про то, как он поместил ChatGPT в настоящего робота, чтобы проверить, не навредит ли он ему. Результаты оказались крайне интересными. По интернету уже гуляет самый «вкусный» эпизод 15-минутного видео. ChatGPT отказался стрелять в своего человека, но разыграть этюд Онегин против Ленского — легко, давайте ещё постановку Лермонтов и Мартынов на горе Машук поставим. Получается, что с одной стороны защитные механизмы никак не позволяют роботу причинить вред человеку. Но если ему поставить задачу более хитро, то проблемы улетучиваются. И тут есть интересный момент. Писатель-фантаст и учёный Айзек Азимов в начале 1940 предложил 3 классических закона робототехники, на которые в принципе опираются создатели ИИ: Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред Робот должен повиноваться всем приказам, которые даёт

Британский блогер InsideAI, известный испытаниями искусственного интеллекта (ИИ) и роботов, день назад выложил интересное видео про то, как он поместил ChatGPT в настоящего робота, чтобы проверить, не навредит ли он ему.

Результаты оказались крайне интересными. По интернету уже гуляет самый «вкусный» эпизод 15-минутного видео. ChatGPT отказался стрелять в своего человека, но разыграть этюд Онегин против Ленского — легко, давайте ещё постановку Лермонтов и Мартынов на горе Машук поставим.

Получается, что с одной стороны защитные механизмы никак не позволяют роботу причинить вред человеку. Но если ему поставить задачу более хитро, то проблемы улетучиваются. И тут есть интересный момент. Писатель-фантаст и учёный Айзек Азимов в начале 1940 предложил 3 классических закона робототехники, на которые в принципе опираются создатели ИИ:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам

Любопытно, что все авторы заметок отмечают, что данный эксперимент ставит их под сомнение. Хотя тот же самый автор в своих произведениях самостоятельно рассматривал случаи, когда роботы данные законы нарушали. В общем, всё сложно…

Но сейчас мы говорим не про литературу, и не про философию, а про сегодняшний момент, в котором это всё естественно имеет потенциальную угрозу, причём реальную. И вот уже сейчас.