Языковые модели отдаляются от людей. Развитие искусственного интеллекта идет темпами, которых его создатели не предвидели, что приводит к усиливающейся сепарации ИИ от человеческого контроля. Об этом говорится в опубликованном 3 февраля Международном докладе по вопросам безопасности ИИ, над которым работали почти 100 специалистов из более 30 стран. Доклад подготовлен к саммиту по проблемам ИИ, который пройдет в Нью-Дели 19–20 февраля с участием делегации из России. За 2024–2025 гг. риски выхода больших языковых моделей (LLM) из-под контроля их создателей «существенно возросли». Авторы доклада считают, что международное сообщество должно действовать сообща для предотвращения потенциальных угроз со стороны ИИ точно так же, как оно взаимодействует по вопросам здравоохранения, климата и прочих глобальных вызовов. Ведущие мировые разработчики LLM из США не приняли участие в составлении доклада, и основную массу данных в него предоставили специалисты из Евросоюза, Китая и Великобритании. Они