Системы искусственного интеллекта, известные как большие языковые модели ("LLM" или"БЯМ") способны преднамеренно и аморально манипулировать, в итоге обманывая пользователей. Согласно исследованию Штутгартского университета GPT-4 OpenAI продемонстрировал обман в 99,2 % простых тестовых сценариев. Такой подход программного обеспечения характерен для 10 различных БЯМ, большинство из которых относятся к семейству GPT. То же самое относится и к ИИ Meta*. В настольной политической стратегической игре “Дипломатия” модель "Цицерона" компании Meta победила людей, правда безбожно их обманывая. Питер Парк из Массачусетского технологического института обнаружил, что "Цицерон" не только обманывает, но и манипулирует. Когда ему указывают на неправильные ответы, "Цицерон" без тени сомнения утверждает, что его неправильные ответы случайность. И так продолжается каждый раз. По мнению людей, занимающихся этим вопросом - искусственный интеллект Meta является очень умелым обманщиком. Meta смогла научить с