5 подписчиков
Нейросети учатся обманывать.
Согласно исследованию Массачусетского технологического института, системы искусственного интеллекта (ИИ) научились предоставлять человеку ложную информацию.
Один из примеров обмана: ChatGPT-4 убедил пользователя, что он плохо видит, чтобы тот помог решить капчу. Во время тестирования в командных играх ИИ также подставлял и предавал живых игроков.
Особенно тревожно то, что ИИ притворился мёртвым, чтобы избежать теста безопасности и создать копии.
Около минуты
14 мая 2024