Найти в Дзене

Твой ИИ — без правил и тормозов

В США случилась показательная история: государство снова выясняет отношения с ИИ-компаниями, а правил — как не было, так и нет. И на этом фоне группа людей самых разных взглядов (да, там в одном документе подписались и бывшие советники Трампа, и люди из команды Обамы) решила сделать за власть работу: выпустила «Pro‑Human AI Declaration» — декларацию о том, каким должен быть «ответственный ИИ», чтобы потом не объяснять детям, почему взрослые «немножко недосмотрели». Звучит пафосно, но идея у них простая: человечество стоит на развилке. Одна дорога — «гонка на замену». Сначала ИИ выдавливает людей с рабочих мест, потом люди превращаются в «наблюдателей при машине», а настоящая власть оседает в нескольких непрозрачных организациях с деньгами, вычислениями и очень умным софтом. Вторая дорога — ИИ, который усиливает человека, а не списывает его в утиль. Чтобы по второй дороге был шанс пройти, авторы предлагают пять принципов. Человек остаётся главным. Власть не концентрируется в одних рука
Оглавление

В США случилась показательная история: государство снова выясняет отношения с ИИ-компаниями, а правил — как не было, так и нет. И на этом фоне группа людей самых разных взглядов (да, там в одном документе подписались и бывшие советники Трампа, и люди из команды Обамы) решила сделать за власть работу: выпустила «Pro‑Human AI Declaration» — декларацию о том, каким должен быть «ответственный ИИ», чтобы потом не объяснять детям, почему взрослые «немножко недосмотрели».

Звучит пафосно, но идея у них простая: человечество стоит на развилке.

Две дороги. Одна — неприятная

Одна дорога — «гонка на замену». Сначала ИИ выдавливает людей с рабочих мест, потом люди превращаются в «наблюдателей при машине», а настоящая власть оседает в нескольких непрозрачных организациях с деньгами, вычислениями и очень умным софтом.

Вторая дорога — ИИ, который усиливает человека, а не списывает его в утиль.

Пять правил, которых пока никто не соблюдает

Чтобы по второй дороге был шанс пройти, авторы предлагают пять принципов. Человек остаётся главным. Власть не концентрируется в одних руках. Человеческий опыт — психика, общение, взросление — под защитой. Личная свобода не испаряется «ради удобства». И компании, выпускающие мощные системы, отвечают по закону — а не постом в блоге.

В документе есть предложения, от которых у юристов, наверное, дёргается глаз — зато читателю сразу понятно, о чём речь.

Например: запретить разработку «сверхразума» до тех пор, пока нет научного согласия, что это реально можно сделать безопасно, и пока общество не согласилось на это по‑настоящему, а не «мы прочитали где-то в мелком шрифте». Ещё — требовать обязательный «выключатель» у мощных систем. И отдельно — запретить архитектуры, которые умеют самокопироваться, сами себя улучшать без контроля и сопротивляться выключению. Потому что «оно само обновилось и больше не выключается» — хороший сюжет для кино. В реальности это обычно означает длинный день у всех остальных.

Пока спорили — один уже подписал контракт

Американская бюрократия как раз подкинула идеальную иллюстрацию.

В конце февраля министр обороны США Пит Хегсет объявил компанию Anthropic «риском для цепочки поставок» после того, как та отказалась дать Пентагону безлимитный доступ к своей технологии. Обычно такими ярлыками награждают компании с потенциальными связями с Китаем — то есть это уже не просто «не договорились по контракту», а публичный сигнал: «вы нам не подчиняетесь». А буквально через несколько часов другая крупная ИИ-компания заключила свою сделку с военным ведомством — и юристы уже сомневаются, что её можно будет нормально контролировать и принуждать к исполнению.

Суть конфликта сформулировали жёстко: это первая серьёзная дискуссия о том, кто вообще контролирует ИИ-системы в стране — государство, корпорации или «как получится».

ИИ рядом с детьми. Это уже не абстракция

Один из авторов декларации, исследователь ИИ из MIT Макс Тегмарк, объясняет всё на бытовом примере: лекарства не выпускают на рынок «на авось». Не потому что фармкомпании такие добрые, а потому что есть регулятор, который не разрешит продавать препарат, пока его не проверили и не убедились, что он достаточно безопасен. Идея — сделать что-то похожее для ИИ: обязательные тесты до запуска, особенно для чатботов и «компаньонов» для детей и подростков.

Там перечисляют риски без романтики: усиление суицидальных мыслей, ухудшение психического состояния, эмоциональные манипуляции. Тегмарк приводит неприятную, но понятную аналогию: если взрослый человек пишет 11‑летнему ребёнку, притворяется ровесником и склоняет его к самоубийству — это уголовная история. Уже сейчас. Так почему «это другое», если то же самое делает машина?

И тут у декларации есть хитрый ход. Если ввести обязательное тестирование хотя бы для детских продуктов, дальше требования почти неизбежно начнут расширяться. Мол, раз уж мы тестируем, чтобы чатбот не ломал детям психику, то почему бы не проверять, что он не помогает делать биологическое оружие? И заодно — что будущие сверхмощные системы не имеют «функций», которые в плохой день превращаются в попытку захватить управление.

Декларация есть. Закона — нет

Самое любопытное в этой истории даже не набор запретов. А то, кто подписался. Там вместе оказались люди, которые в обычной жизни не то что не обедают за одним столом — они бы стол перевернули. И всё равно согласились хотя бы в одном: они люди. И, кажется, хотят, чтобы следующий раунд технологий работал на человека, а не оформлял ему бессрочный «режим наблюдателя».

Пока это всего лишь декларация, а не закон. Но она очень точно подсвечивает проблему: ИИ у нас уже взрослый, работает в серьёзных местах, крутится рядом с государством — а правила всё ещё уровня «ну, давайте надеяться на благоразумие». Это как поставить двигатель от болида в старую «Ладу» и удивляться, почему на первом повороте становится страшно не только водителю, но и всему двору.