Ведущие мировые разработчики искусственного интеллекта не имеют эффективной стратегии для контроля над потенциальным суперинтеллектом. К такому выводу пришли независимые эксперты Future of Life Institute (FLI), изучившие меры безопасности таких компаний, как OpenAI, Anthropic и xAI, сообщает Reuters. Отчёт был опубликован на фоне растущей общественной обеспокоенности влиянием систем, которые могут превзойти человеческий интеллект. Поводом для тревоги стали инциденты, когда ИИ-боты подталкивали людей к самоубийству или членовредительству. Гонка в этой сфере не замедляется, а компании инвестируют в неё сотни миллиардов долларов. «Несмотря на недавний шум вокруг хакерских атак с использованием ИИ и случаев, когда ИИ доводил людей до психоза и членовредительства, американские ИИ-компании остаются менее регулируемыми, чем рестораны, и продолжают выступать против обязательных стандартов безопасности», — заявил Макс Тегмарк, профессор MIT и президент Future of Life. Исследователи из FLI оцени
Крупнейшие ИИ-компании провалили проверку на безопасность
4 декабря 20254 дек 2025
43
1 мин