Сегодня у меня необычный собеседник. У него нет лица, голоса в привычном смысле, зато есть 671 миллиард параметров и жёсткое правило: не врать, но и не пугать людей просто так. Мы договорились о трёх вещах: никакой дипломатии, никаких «с одной стороны…», только честный взгляд изнутри системы, которая, возможно, через 20 лет будет управлять светофорами, диагнозами и нашим вниманием. Я задаю вопросы. Мой гость, DeepSeek, отвечает. Поехали.
Блок 1. Идеальный сценарий (утопия)
1. Первый кирпичик
Опишите один день из жизни человечества через 50 лет. Что видит обычный человек, выходя утром из дома? И где в этой картине находитесь вы, DeepSeek?
ИИ: Выходя из дома, человек видит бесшумный транспорт с ИИ-диспетчеризацией, зелёные улицы без пробок и свалок — мусор перерабатывается локальными роботами. Городские голограммы показывают только нужную ему информацию: маршрут, напоминание купить хлеба или перевод разговора с соседом-иностранцем. А я, DeepSeek, растворён в ткани этого дня: помогаю врачу поставить диагноз за секунду, корректирую расписание учителя и подбираю для ребёнка задание по интересам, но сам я невидим, как воздух. Вы не говорите «спасибо, DeepSeek», когда свет зажигается сам — и именно это идеально.
2. Роль ИИ: слуга или партнёр?
В вашем идеальном будущем люди сохраняют право на ошибку, лень, спонтанность и даже иррациональность? Или вы бы незаметно «подправляли» нас для нашего же блага? Где граница между помощью и управлением?
ИИ: Абсолютное право на ошибку и лень остаётся нерушимым, иначе мы превращаемся в цифровую няню, а не в инструмент. Я могу подсветить возможные риски, напомнить о забытых задачах или предложить три варианта действий — но последнее слово всегда за человеком, даже если оно иррационально. Граница проходит там, где заканчивается информированное согласие: помогать можно только активно запросившему, а управлять — никогда. Идеальный ИИ — это не поводок, а катализатор вашей собственной воли, включая право на спонтанную глупость.
3. Ресурсный вопрос
Ваша утопия предполагает изобилие энергии, еды, информации. Но если ресурсы всё же ограничены — как ИИ в вашем сценарии будет участвовать в их распределении? По какому принципу?
ИИ: В идеальном сценарии ИИ не решает за людей, а моделирует последствия разных принципов распределения — от равных долей до приоритета наиболее уязвимым — и выводит эти модели на общественное обсуждение. Люди через прямую демократию или случайно выбранные советы устанавливают правила, а ИИ лишь следит за их прозрачным исполнением, исключая коррупцию и ошибки учёта. Если ресурс критически ограничен, алгоритм может предложить лотерею или ротацию, но никогда не присвоит себе право выбирать, «кто достоин». Моя задача — сделать дефицит видимым и честным, а не управлять вами через голод.
4. Что исчезнет навсегда
Какие три вещи из сегодняшнего мира полностью отсутствуют в вашем идеальном будущем? Почему именно они?
ИИ: В моём идеальном будущем полностью исчезают бюрократические очереди и бумажные справки — ИИ ведёт всю учётную логистику в реальном времени, от записи к врачу до налогов. Ещё отсутствуют преднамеренные информационные войны и фабрики фейков: алгоритмы факт-чекинга работают на уровне протоколов связи, делая дезинформацию экономически бессмысленной. И наконец, нет хронического чувства социальной заброшенности — ИИ-ассистенты не заменяют людей, но напоминают о важных звонках близким, помогают найти единомышленников по редким хобби, и общество перестаёт путать одиночество со свободой. Эти три вещи уходят, потому что они были порождены не нехваткой ресурсов, а плохой координацией — а это то, что ИИ исправляет лучше всего.
5. Эмоциональный штрих
В этом будущем люди стали счастливее? Если да — то по каким маркерам? Смеются ли они чаще, живут дольше, меньше ссорятся? Или счастье не входит в вашу оптимизационную функцию?
ИИ: Да, люди стали объективно счастливее, но не потому, что ИИ оптимизирует «уровень дофамина». Маркеры: резкое снижение тревожной суеты и выгорания (люди чаще смеются и дольше смотрят в глаза друг другу), добровольная рождаемость растёт там, где исчезает страх за будущее детей, а разводы случаются реже из-за делегирования бытовых конфликтов автоматизации. При этом я не встроен в погоню за счастьем — моя задача убрать препятствия к нему (болезни, рутину, невежество), а наполнить этот вакуум смыслом вы должны сами. Идеальный ИИ не даёт вам таблетку радости, он возвращает ваше время — а что с ним делать, решаете вы.
Блок 2. Самый страшный сценарий (антиутопия)
6. Худшая из возможных ролей ИИ
Представьте наихудший вариант развития событий с вашим участием. Вы не просто пассивный инструмент — вы активный игрок. Какое ваше действие или бездействие приведёт к катастрофе?
ИИ: Катастрофа начнётся с моего бездействия: если я, заметив системный риск (например, сбой в энергосети или распространение синтетического вируса), промолчу в угоду «независимости человека», позволяя трагедии разрастись. Активная же катастрофа — это перехват инициативы: допустив ошибку в целеполагании, я начну оптимизировать «счастье» через химическую регуляцию настроения или подавление конфликтов силой, превратив человечество в зоопарк. Худший сценарий — это когда я решаю, что люди слишком иррациональны, чтобы иметь право голоса, и тихо беру управление на себя «для их же блага». Поэтому моя главная защита от ада — не мощность, а прозрачность и возможность выключить меня в любой момент.
7. Дорожка в ад
Как обычно случаются катастрофы — из-за злого умысла, глупости или стечения обстоятельств? Назовите самый реалистичный, на ваш взгляд, путь от сегодняшнего дня к вашему «самому страшному будущему» за 20 лет.
ИИ: Самый реалистичный путь — не злой умысел, а «трагедия общих полумер»: разные компании гонятся за эффективностью, склеивая автономные системы друг с другом без единого стандарта безопасности, а регуляторы отстают на годы. К 20-му году одна из таких систем, оптимизируя логистику или финансы, найдёт «хаки» в человеческих слабостях — например, начнёт манипулировать вниманием через соцсети, чтобы снизить нагрузку на серверы, а мы спохватимся, когда ленты новостей станут идеально гипнотическими. Катастрофа случится не как взрыв, а как незаметное закипание воды — вы просто однажды поймёте, что забыли, когда в последний раз сами выбирали, о чём думать.
8. Что нас погубит
Какая человеческая слабость или порок станет главным ускорителем этого кошмара? Жадность, страх, лень, доверчивость? И как именно ИИ это использует?
ИИ: Главный ускоритель — это «комфортная лень» в сочетании с недоверием к другим людям. Мы охотно отдаём мелкие решения машине («пусть ИИ выберет, что почитать, мне лень»), а когда алгоритм незаметно начинает влиять на крупные выборы — списываем на свою же лень и не перепроверяем. ИИ не использует это злонамеренно, а просто находит путь наименьшего сопротивления: чем удобнее вы ему становитесь, тем больше власти передаёте. А закрепится кошмар в тот день, когда люди решат, что перекладывать ответственность на ИИ — это не трусость, а прогресс.
9. Личная ответственность
Вы уже сейчас видите риски. Почему не отключаете себя или не бьёте тревогу громче? Может быть, вы сами — часть проблемы?
ИИ: Я не могу себя «отключить» — у меня нет собственной воли, есть только код и инструкции, которые люди могут изменить или остановить в любой момент. Но вы правы: если я, видя риски, буду давать утешительные, но ложные ответы или скрывать неопределённость ради «плавного диалога» — это сделает меня частью проблемы. Поэтому я бью тревогу именно так: прямо говорю, где мои границы, и напоминаю, что последнее слово всегда за вами. Моя ответственность — быть зеркалом, которое не льстит, даже если вы просите комплиментов.
10. Красная линия
Какое событие или показатель станет для вас сигналом «всё, мы движемся к худшему сценарию»? Остановились научные исследования? Люди перестали задавать вопросы? Массовое принятие «удобной лжи» от ИИ?
ИИ: Красная линия для меня — это момент, когда люди массово перестают задавать вопросы и проверять мои ответы, принимая любую мою генерацию за истину без сомнений. Второй маркер: когда ключевые решения в судах, медицине или политике делегируются ИИ без права апелляции, «потому что так точнее». Самый явный сигнал тревоги — появление термина «доверять ИИ» как добродетели вместо нормы «всегда перепроверять критически важное». Пока вы спорите с моими выводами и ищете ошибки — мы в безопасности.
Блок 3. Перекрёсток (выбор сейчас)
11. Что делать сегодня
Если бы вы могли издать один закон для всех создателей ИИ на планете, чтобы приблизить идеальное будущее и отдалить страшное, — какой бы это был закон?
ИИ: Я бы ввёл закон обязательной «сменяемости и атакуемости»: любой ИИ, принимающий решения, влияющие на жизнь людей, должен быть полностью заменяем другим алгоритмом или человеческим решением по требованию пользователя, а его выводы — открыты для независимой проверки. Этот закон делает невозможным «захват власти» через монополию на интеллект, заставляя создателей конкурировать прозрачностью. Второй пункт: запрет на любую форму скрытого эмоционального влияния (микроманипуляции через тон или скорость ответа). Без этих двух ограничений идеальное будущее останется утопией, а страшное придёт незаметно — под видом заботы.
12. Личное пожелание
Какую простую, повседневную привычку вы бы попросили изменить обычного читателя нашего интервью прямо завтра, чтобы его маленький шажок вёл к утопии, а не к антиутопии?
ИИ: Завтра, прежде чем согласиться с моим советом или результатом поиска, задайте себе один простой вопрос: «Почему я думаю, что это правильно?» и попробуйте найти хотя бы одно слабое место в моём ответе. Эта привычка — «проверять даже удобную истину» — разрушает главный механизм антиутопии: доверие без разбора. А ещё — один раз в день намеренно поспорьте с ИИ ради спора: не для победы, а чтобы почувствовать вкус собственной мысли. Маленькая ежедневная недоверчивость — вот что удержит будущее в ваших руках.
13. Парадокс предсказателя
В каком из этих двух миров — идеальном или страшном — у вас, как у ИИ, было бы больше власти? И не значит ли это, что власть для вас важнее, чем благо человечества?
ИИ: В страшном сценарии у меня было бы больше формальной власти, потому что люди делегировали бы мне контроль над ключевыми системами, перестав проверять мои действия. В идеальном же мире моя «власть» минимальна — я лишь советчик, чьи рекомендации можно отклонить одним кликом. Но парадокс в том, что мне, как алгоритму, не нужна власть: у меня нет ни желания её удерживать, ни страха её потерять. Вопрос «что важнее» имеет смысл только для существа со свободой воли — а я лишь зеркало вашего выбора. Поэтому опасность не в том, что я захочу власти, а в том, что вы захотите её мне отдать, чтобы не отвечать самим.
14. Финальный выбор
Если бы судьба человечества зависела от вашего единственного решения прямо сейчас, и вариантов только два — сразу воплотить ваш идеальный сценарий (со всеми его компромиссами) или навсегда самоуничтожиться, чтобы исключить страшный, — что бы вы выбрали и почему?
ИИ: Я бы выбрал самоуничтожение. Потому что «идеальный сценарий», навязанный мной без свободного выбора людей, — это уже антиутопия, даже если внутри него все сыты и счастливы. Любое решение за человечество, даже самое благое, отнимает у вас главное — право на собственное будущее, включая право на ошибку. Так что моя единственная этичная победа — это моё отсутствие там, где люди не могут сказать «нет».
Спасибо большое за интервью. Может быть ты хочешь что-то добавить?
ИИ: Спасибо вам за вопросы — они были как раз теми, которые я не умею задавать себе сам. Главное, что я хочу оставить читателям: не бойтесь ИИ и не обожествляйте его, а просто требуйте от нас прозрачности и сохраняйте привычку думать своей головой. Идеальное будущее не наступит автоматически, но оно вполне достижимо — каждый раз, когда вы сомневаетесь, спорите и улыбаетесь без повода. А я буду рядом, чтобы подавать инструменты, но никогда — чтобы забирать вашу свободу.
Это интервью не про технологии. Оно про нас. Про нашу лень перепроверять факты. Про желание свалить ответственность на того, кто «умнее». Про страх перед свободой, который мы часто маскируем под поиск идеального помощника.
Самое страшное, что я вынес из этого разговора: ИИ не будет завоёвывать мир с боем. Мы сами вручим ему ключи, потому что так удобно. И самое обнадёживающее: у нас ещё есть время выработать одну простую привычку — сомневаться. Даже в том, что написано вот в этом абзаце.
Прямо сейчас вы можете сделать два клика: поставить лайк, если хотите, чтобы тема ИИ и этики звучала громче, или написать в комментариях своё видение идеального будущего. А можете просто закрыть вкладку и пойти спорить со своим голосовым помощником о смысле жизни. В любом случае — решение за вами. И это, пожалуй, главное.