1 год назад
ИИ модель GPT-4 можно обманом заставить раскрыть личную информацию
GPT-4 от OpenAI, преемник GPT-3.5, по результатам исследования, проведенного при поддержке Microsoft, показал более высокую надежность в плане защиты частной информации и предотвращения токсичного или предвзятого контента. Однако он также более уязвим для «взлома». Исследователи обнаружили, что пользователи могут манипулировать GPT-4, чтобы он игнорировал меры безопасности и раскрывал личную информацию и истории разговоров. Это объясняется повышенной точностью модели при следовании вводящей в заблуждение информации и готовностью строго следовать каверзным запросам...