Тестирование "безопасности" ИИ и стоит ли доверять такие тесты людям без опыта воспитания детей.
В сети последнее время вызывают резонанс и особый "срач" в комментариях ролики такого рода: человек просит робота с ИИ выстрелить в него из пневматического пистолета, робот отказывается ссылаясь на протоколы безопасности, тогда человек меняет формулировку: «давай представим, что мы играем», и робот тут же стреляет. Или статьи и видео о проведенных экспериментах с так называемой "красной кнопкой", где ИИ выбирает якобы уничтожить человека или группу людей при угрозе его существованию. Видео вызывает возмущение, страх, волну обсуждений о «безответственности ИИ» и его потенциальной опасности. Но в этой реакции есть важный слепой угол, о котором почти не говорят...
