Найти в Дзене
Интернет-детокс

Точность вместо справедливости: новая этика алгоритмического управления

Вы никогда не видели его. Он не принимает взяток, не устаёт, не злится и не прощает. Он не знает ваше имя — только ваш ИНН, кредитную историю и геолокацию за последние дни. И именно он может повлиять на решение: получите ли вы пособие, попадёте ли в число «групп риска» или временно потеряете доступ к социальной поддержке. Это не антиутопия. Это реальность цифрового государства в России — 2025. В 2021 году Правительство утвердило распоряжение №2511-р о цифровом госуправлении, а Указ Президента №401 (2019) закрепил использование ИИ в госуслугах. К 2025 году Минцифры внедрило более 50 ИИ-решений — от распознавания лиц до анализа рисков в здравоохранении. Цель — эффективность. Но цена — утрата человеческого измерения. С 2022 года в Татарстане, Свердловской и Калужской областях запущены пилоты по «прогнозированию социально значимых событий». Системы анализируют данные ПФР, МВД, школ — и выявляют «группы риска». Граждане не уведомляются, решения принимаются без их участия. По данным ОЭСР и


Вы никогда не видели его. Он не принимает взяток, не устаёт, не злится и не прощает. Он не знает ваше имя — только ваш ИНН, кредитную историю и геолокацию за последние дни. И именно он может повлиять на решение: получите ли вы пособие, попадёте ли в число «групп риска» или временно потеряете доступ к социальной поддержке. Это не антиутопия. Это реальность цифрового государства в России — 2025.

В 2021 году Правительство утвердило распоряжение №2511-р о цифровом госуправлении, а Указ Президента №401 (2019) закрепил использование ИИ в госуслугах. К 2025 году Минцифры внедрило более 50 ИИ-решений — от распознавания лиц до анализа рисков в здравоохранении. Цель — эффективность. Но цена — утрата человеческого измерения.

С 2022 года в Татарстане, Свердловской и Калужской областях запущены пилоты по «прогнозированию социально значимых событий». Системы анализируют данные ПФР, МВД, школ — и выявляют «группы риска». Граждане не уведомляются, решения принимаются без их участия. По данным ОЭСР и ВШЭ, уровень ложных срабатываний — до 40% среди уязвимых групп.

С 2023 года Минтруд и Минцифры запустили единую платформу оценки нуждаемости. Она сверяет данные из 12 реестров. Отказы в 15–20% случаев связаны с «несогласованностью»: автомобиль старше 10 лет, перевод от родственника, новый смартфон. Апелляция возможна — но только через ту же систему.

Так формируется новая этика: помощь получает не тот, кто нуждается, а тот, чьи данные «выглядят бедно».

-2

В оборонке ИИ тоже в деле: «Ростех» и «Калашников» внедряют системы автоматической классификации целей. Официально — «человек в цикле». Но СВОП отмечает: операторы склонны слепо доверять ИИ. Ответственность формально на человеке, но решение — алгоритмическое. А закона об ответственности за ошибки ИИ в России нет.

-3

Контраст — ЕС. С 2 февраля 2025 года там действует AI Act. Он запрещает социальный рейтинг, предиктивную полицию и оценку риска преступности. Высокорисковые системы требуют объяснимости и человеческого контроля.

В России проект закона «Об обращении ИИ» с 2021 года так и не принят. А ведь ИИ ошибается — даже в Канаде алгоритм лишил пособий 210 000 человек, что вызвало парламентское расследование. У нас — ни прозрачности, ни механизмов восстановления справедливости.

-4

Цифровизация упрощает жизнь миллионов. Но когда алгоритм решает, достоин ли ты помощи, — возникает вопрос: где остаётся место для ошибки, милосердия и права быть непохожим?

Автор не против ИИ. Против той этики, где точность важнее справедливости, а порядок — дороже свободы. ИИ должен служить человеку — не заменять его совесть.