🚨 ИИ-гиганты не готовы к рискам сверхразума
Эксперты Future of Life Institute выяснили, что ни одна топовая компания в сфере ИИ не получила оценки выше D по безопасности AGI (искусственного общего интеллекта).
🔍 Провал в планировании
OpenAI, DeepMind и Anthropic получили лишь «тройки», а Meta и xAI вообще отказались раскрывать данные. Нет четких планов по контролю над опасными системами.
⚠️ Сравнение с АЭС без защиты
Сооснователь FLI Макс Тегмарк сравнил ситуацию со стройкой атомной станции в центре Нью-Йорка без аварийных мер.
⚡ Технологии бегут вперед
Grok 4, Gemini 2.5 и Veo3 показывают резкий рост возможностей, но безопасность отстает. Google заявил, что отчет не отражает их реальные меры защиты.
💥 Критика со всех сторон
SaferAI назвал управление рисками в ИИ-компаниях «неприемлемо слабым». Большинство игроков промолчали в ответ на обвинения.
#искусственный_интеллект #безопасность_ии #agi
📌 Не забудь подписаться