Найти в Дзене
Coding Team

Я спросил регулятора про ИИ? он ответил: “Главное, чтобы не сломалось всё сразу”

В прошлом году я стоял на причале в Мурманске и смотрел, как рыбаки сортируют крабов. Один из них показал мне телефон: «Смотри, нейросеть говорит этот самец на 83% мясистый». Я тогда подумал: через пять лет именно такие моменты и станут точкой входа для регуляторов. Не громкие скандалы с фейками или дронами-убийцами, а тихие, повседневные решения, от которых зависит чей-то доход, здоровье или репутация. Сегодня, в начале 2026 года, искусственный интеллект уже не игрушка для хакатонов. Он работает в банках, поликлиниках, логистике, даже в рыбных аукционах. И чем глубже он проникает в реальную экономику, тем острее вопрос: а кто за это отвечает? В Европе ответ уже есть EU AI Act вступил в силу. В Китае тоже: там ИИ обязан молчать, если скажет что-то «неправильное». А у нас? Закона об ИИ пока нет. Но это не значит, что можно делать всё, что вздумается. На самом деле, правила уже работают — просто они разбросаны по разным документам, экспериментам и указаниям. Например, с августа 2024 года
Оглавление
ИИ и рыбный промысел
ИИ и рыбный промысел

В прошлом году я стоял на причале в Мурманске и смотрел, как рыбаки сортируют крабов. Один из них показал мне телефон: «Смотри, нейросеть говорит этот самец на 83% мясистый». Я тогда подумал: через пять лет именно такие моменты и станут точкой входа для регуляторов. Не громкие скандалы с фейками или дронами-убийцами, а тихие, повседневные решения, от которых зависит чей-то доход, здоровье или репутация.

Сегодня, в начале 2026 года, искусственный интеллект уже не игрушка для хакатонов. Он работает в банках, поликлиниках, логистике, даже в рыбных аукционах. И чем глубже он проникает в реальную экономику, тем острее вопрос: а кто за это отвечает?

В Европе ответ уже есть EU AI Act вступил в силу. В Китае тоже: там ИИ обязан молчать, если скажет что-то «неправильное». А у нас? Закона об ИИ пока нет. Но это не значит, что можно делать всё, что вздумается.

На самом деле, правила уже работают — просто они разбросаны по разным документам, экспериментам и указаниям. Например, с августа 2024 года любой алгоритм, который обрабатывает персональные данные, обязан соблюдать особые условия — это федеральный закон №233-ФЗ. С января 2025-го Минпромторг запустил добровольную сертификацию ИИ-решений. Есть 15 экспериментальных правовых режимов — от беспилотных автобусов до телемедицины. И даже ГОСТ, регулирующий применение ИИ в научных исследованиях.

Всё это — не хаос, а своего рода «мягкий каркас». Российская модель явно делает ставку не на запреты, а на развитие. При этом никто не отменял базовые принципы: нельзя строить цифровые рейтинги людей, нельзя скрывать, что решение принял алгоритм, и нельзя лишать человека права на объяснение — особенно если речь о кредите, работе или лечении.

Меня часто спрашивают: стоит ли ждать принятия закона, прежде чем внедрять ИИ в бизнес? -Нет. Наоборот: именно сейчас самое время готовиться. Потому что те, кто сегодня думает о прозрачности, безопасности и этике, завтра получат преимущество.

Как это выглядит на практике?

Недавно мы делали систему для банка: чат-бот отвечает на вопросы клиентов и может мгновенно подтянуть их договор, историю платежей, остаток по счёту. Казалось бы удобно. Но если данные уйдут в облако третьего лица или клиент не сможет переключиться на человека это нарушение. Мы оставили всё внутри корпоративной сети и добавили кнопку «Поговорить с оператором» на каждом экране. Просто, но критично.

Ещё один проект — приложение для оценки крабов. Нейросеть анализирует фото клешни и даёт оценку мясистости. Здесь главный риск — не в точности, а в доверии. Рыбак должен быть уверен: его не обманули, данные не ушли в сеть, а решение основано на объективных признаках, а не на том, с кем он вчера поссорился на пристани. Поэтому мы отказались от хранения изображений вообще, модель обрабатывает кадр на устройстве и тут же его забывает.

А в аптеках мы внедрили видеоаналитику, которая строит тепловые карты потоков покупателей. Без распознавания лиц. Без идентификации. Только анонимные траектории. Это позволяет понять, где ставить акционные стенды, но не нарушает приватность. Такие решения проходят даже самые строгие внутренние аудиты.

Что объединяет все эти кейсы? Они не ждут закона. Они предвосхищают его.

Если вы только начинаете работать с ИИ, начните с простого:

  1. Подумайте, может ли ваша система повлиять на чью-то жизнь. Если да, это зона повышенного внимания.
  2. Убедитесь, что пользователь понимает: он общается с алгоритмом, а не с человеком.
  3. Защитите данные так, будто за ними охотятся. Потому что, возможно, охотятся.
  4. Документируйте всё, а ради того, чтобы через год вы сами могли объяснить, почему приняли то или иное решение.

Регулирование ИИ в России, скорее всего, будет гибким, отраслевым и ориентированным на поддержку отечественных решений. Но гибкость — не вседозволенность. Те, кто сегодня инвестирует в ответственное использование технологий, завтра получат не только доверие клиентов, но и доступ к госзакупкам, партнёрствам и даже международным рынкам.

И спокойный сон. Потому что когда регулятор приходит с проверкой, лучше быть готовым.