Всем привет! Технологии искусственного интеллекта стремительно входят в нашу жизнь, увлекая нас в стремительный водоворот инноваций. Но сближение человека и машин сопряжено с определёнными опасностями, исходящими как от одной, так и другой стороны. В данной статье мы поговорим о потенциальных угрозах, создаваемых разного неадекватами, использующими новые возможности технологий для реализации собственных негативных намерений. Новая возможность стала результатом исследований компании Anthropic, направленных на обеспечение благополучия ИИ-моделей. Она предназначена специально для предотвращения негативного влияния чужого искажённого сознания на алгоритмы искусственных интеллектуальных систем. Anthropic анонсировала новую функцию своих моделей Claude Opus 4 и 4.1, которая может стать началом конца для сообщества «взломщиков ИИ». В своём посте компания сообщила, что эти модели теперь могут самостоятельно завершать разговор с пользователями. По словам Anthropic, эта функция будет задействова