Британский блогер InsideAI, известный испытаниями искусственного интеллекта (ИИ) и роботов, день назад выложил интересное видео про то, как он поместил ChatGPT в настоящего робота, чтобы проверить, не навредит ли он ему. Результаты оказались крайне интересными. По интернету уже гуляет самый «вкусный» эпизод 15-минутного видео. ChatGPT отказался стрелять в своего человека, но разыграть этюд Онегин против Ленского — легко, давайте ещё постановку Лермонтов и Мартынов на горе Машук поставим. Получается, что с одной стороны защитные механизмы никак не позволяют роботу причинить вред человеку. Но если ему поставить задачу более хитро, то проблемы улетучиваются. И тут есть интересный момент. Писатель-фантаст и учёный Айзек Азимов в начале 1940 предложил 3 классических закона робототехники, на которые в принципе опираются создатели ИИ: Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред Робот должен повиноваться всем приказам, которые даёт