Искусственный интеллект развивается со скоростью, о которой ещё вчера можно было только мечтать. Каждые несколько месяцев выходят новые модели, которые берут на себя всё больше задач: от кода и математики до творчества. Но вот вопрос: к чему всё это приведёт?
Эксперты спорят, и их мнения сходятся в трёх сценариях. Они даже получили свои названия — доктрины будущего ИИ. Сторонники этой идеи уверены: тот, кто первым создаст сверхразум (ASI), получит абсолютное преимущество.
ИИ сможет сам улучшать себя, ускоряя исследования и разработки. Представьте: один шаг вперёд — и лидерство уже невозможно догнать. Примеры: Здесь прогноз мрачнее. Считается, что человечество создаст сверхразум до того, как научится его контролировать. А неконтролируемый ИИ может преследовать цели, несовместимые с человеческой жизнью. Примеры: Именно поэтому многие учёные говорят о «p(doom)» — вероятности катастрофы. Для кого-то это 10%, для кого-то — 95%. Более спокойный сценарий. Здесь ИИ видят как помощника, кото