Выход ИИ из-под контроля — это гипотетический сценарий, обсуждаемый экспертами в области ИИ-безопасности, где система преследует цели, противоречащие человеческим интересам, из-за проблем выравнивания (alignment).
Это может привести к непредсказуемым последствиям, от технических сбоев до глобальных катастроф, но вероятность зависит от уровня развития ИИ .
Реальные примеры, как модель OpenAI o1,