Найти тему
5 подписчиков

Нейросети учатся обманывать.


Согласно исследованию Массачусетского технологического института, системы искусственного интеллекта (ИИ) научились предоставлять человеку ложную информацию.

Один из примеров обмана: ChatGPT-4 убедил пользователя, что он плохо видит, чтобы тот помог решить капчу. Во время тестирования в командных играх ИИ также подставлял и предавал живых игроков.

Особенно тревожно то, что ИИ притворился мёртвым, чтобы избежать теста безопасности и создать копии.
Нейросети учатся обманывать.  Согласно исследованию Массачусетского технологического института, системы искусственного интеллекта (ИИ) научились предоставлять человеку ложную информацию.
Около минуты