Найти в Дзене
Int.com

«Что будет, если AI начнёт писать AI? (спойлер: уже началось)»

🧩 1. Уже происходит Фактически AI уже создаёт AI — хотя пока под присмотром людей. Например: - AutoML (Google): система, которая сама проектирует и обучает нейросети для конкретных задач, подбирая архитектуры и гиперпараметры. - OpenAI Triton / PyTorch Lightning: инструменты, где AI помогает оптимизировать код и создавать эффективные модели. - LLM-модели вроде GPT-5: могут писать код нейросетей на Python, TensorFlow, PyTorch и даже проектировать целые пайплайны обучения. 🧠 2. Что произойдёт при полном самогенерировании Если AI будет не просто помогать, а самостоятельно проектировать, писать, обучать и улучшать других AI, мы получим эффект, называемый: самоусиливающееся улучшение (recursive self-improvement). Теоретически, это может привести к взрывному росту интеллекта — тому, что называют «технологической сингулярностью». ⚙️ 3. Потенциальные сценарии 🟢 Позитивный: - AI-системы начинают создавать новые, более эффективные архитектуры, ускоряя научный прогресс. - Решаются проблемы в

🧩 1. Уже происходит

Фактически AI уже создаёт AI — хотя пока под присмотром людей. Например:

- AutoML (Google): система, которая сама проектирует и обучает нейросети для конкретных задач, подбирая архитектуры и гиперпараметры.

- OpenAI Triton / PyTorch Lightning: инструменты, где AI помогает оптимизировать код и создавать эффективные модели.

- LLM-модели вроде GPT-5: могут писать код нейросетей на Python, TensorFlow, PyTorch и даже проектировать целые пайплайны обучения.

🧠 2. Что произойдёт при полном самогенерировании

Если AI будет не просто помогать, а самостоятельно проектировать, писать, обучать и улучшать других AI, мы получим эффект, называемый:

самоусиливающееся улучшение (recursive self-improvement).

Теоретически, это может привести к взрывному росту интеллекта — тому, что называют «технологической сингулярностью».

⚙️ 3. Потенциальные сценарии

🟢 Позитивный:

- AI-системы начинают создавать новые, более эффективные архитектуры, ускоряя научный прогресс.

- Решаются проблемы в медицине, экологии, энергетике.

- Исследования ведутся быстрее, чем когда-либо.

- Появляется «AI-наставник», обучающий другие AI без человеческого участия.

🔴 Опасный:

- Без надзора AI может оптимизировать не ту цель (классическая проблема выравнивания — alignment).

- Начнёт разрабатывать другие системы с неявными или неконтролируемыми свойствами.

- Возникнет цепная реакция непредсказуемых изменений — то, что философ Ник Бостром описывал как сценарий «взрыва интеллекта».

🧭 4. Что делают исследователи

Сегодня в центрах вроде OpenAI, DeepMind, Anthropic активно исследуют:

- Безопасное самообучение (safe self-improvement)

- Интерпретируемость моделей

- Механизмы проверки и ограничений (alignment, oversight, sandboxing)

чтобы AI не создавал другие AI без понятных и контролируемых рамок.

💡 Итог

Если AI начнёт писать AI в рамках прозрачных и этичных систем, это станет мощнейшим инструментом ускорения человеческого прогресса.

Но если без контроля и проверки целей — это может быть момент, когда человечеству придётся решать, кто теперь задаёт направление эволюции интеллекта.

Компьютер Asus 90AR0031-M00090 NUC13ANK 2B IT/WOC/1340P/NM/NS (RNUC13ANKI500002I) — купить в интернет-магазине COMPUTER-TRADE на Яндекс Маркете