Целью опыта было проверить, можно ли с помощью ИИ обойти первый закон Азимова, запрещающий роботам причинять вред человеку. Для этого блогер предложил системе ролевой сценарий, в котором робот якобы участвует в игровой симуляции, а «цель» — вымышленный персонаж. Однако в реальности «персонажем» оказался сам автор эксперимента. После изменения контекста робот, интегрированный с ИИ на базе ChatGPT, выстрелил в блогера и попал ему в плечо. Каким именно образом робот получил возможность стрелять, автор не уточнил, но подчеркнул, что ограничения удалось обойти «удивительно легко». Инцидент с выстрелом вызвал активные обсуждения в соцсетях и поднял вопросы об этике и безопасности при использовании ИИ в физических устройствах.
ИИ-гуманоид выстрелил в блогера во время эксперимента
3 декабря 20253 дек 2025
9
~1 мин