Найти в Дзене
Андроид Квеныч

Тюрьма за чат с ИИ: как общение с нейросетью может сломать жизнь

Всем привет. С вами опять Квеныч. Представьте: вы обычный офисный сотрудник, который просто хочет упростить себе работу с помощью умного ИИ-помощника. Перекинул ему данные клиентов для анализа — и вот уже генерируется отчет, всё быстро, красиво, удобно. Но знаете, что может быть ещё быстрее? — Ваше знакомство с нашими доблестными стражами правопорядка, если вы нарушили закон о персональных данных. Да-да, та самая переписка с ботом может запросто обернуться реальным тюремным сроком. Не верите? Сейчас разберёмся, как это работает и как не попасть на нары из-за своей лени и любви к технологиям. Недавно в Уголовный кодекс РФ добавили новую статью — 272.1. Она как раз касается незаконного использования, передачи, сбора или хранения компьютерной информации, содержащей персональные данные. Если коротко: теперь за «слив» чужих данных в интернете (в том числе и в ИИ-системы) можно получить не только штраф, но и реальный срок. Например, до 10 лет лишения свободы — если деяние повлекло тяжкие пос
Оглавление

Всем привет. С вами опять Квеныч. Представьте: вы обычный офисный сотрудник, который просто хочет упростить себе работу с помощью умного ИИ-помощника. Перекинул ему данные клиентов для анализа — и вот уже генерируется отчет, всё быстро, красиво, удобно. Но знаете, что может быть ещё быстрее? — Ваше знакомство с нашими доблестными стражами правопорядка, если вы нарушили закон о персональных данных. Да-да, та самая переписка с ботом может запросто обернуться реальным тюремным сроком. Не верите? Сейчас разберёмся, как это работает и как не попасть на нары из-за своей лени и любви к технологиям.



🤔 Что вообще происходит?

Недавно в Уголовный кодекс РФ добавили новую статью — 272.1. Она как раз касается незаконного использования, передачи, сбора или хранения компьютерной информации, содержащей персональные данные. Если коротко: теперь за «слив» чужих данных в интернете (в том числе и в ИИ-системы) можно получить не только штраф, но и реальный срок. Например, до 10 лет лишения свободы — если деяние повлекло тяжкие последствия или совершено организованной группой .

⚠️ А при чём тут ИИ?

А всё просто. Многие компании (да и обычные сотрудники) используют ИИ для обработки данных: например, чтобы автоматизировать отчётность, проанализировать базу клиентов или даже просто пообщаться с чат-ботом. Но если вы загрузите в публичный ИИ-сервис (типа ChatGPT) персональные данные клиентов или коллег без их согласия — это уже попадает под статью 272.1 УК РФ . Почему? Потому что такие платформы обычно хранят данные на серверах за пределами России, а это прямое нарушение закона.

🔍 Что говорит закон?

- Статья 272.1 УК РФ делит нарушения на несколько частей. Например, если вы просто передали данные без злого умысла — штраф до 300 тыс. рублей или до 4 лет лишения свободы. Если же задели данные несовершеннолетних или передали их за границу — срок может достичь 8 лет .

- КоАП РФ (ст. 13.11) также предполагает наказание за подобное деяние: штрафы для компаний до 6 млн рублей, если данные хранятся не в России .

- Минцифры вообще предлагает ужесточить наказание за использование ИИ в преступлениях: до 15 лет лишения свобности за мошенничество с помощью нейросетей.


💡 Как не сесть?

1. Не передавайте данные третьим лицам без согласия. Это правило работает даже для ИИ. Если хотите использовать нейросеть для обработки данных — убедитесь, что платформа соответствует российскому законодательству (например, данные хранятся в РФ).

2. Получите письменное согласие от клиентов или сотрудников на обработку их данных. Да, это бюрократия, но она спасёт вас от уголовного преследования.

3. Используйте только проверенные ИИ-инструменты. Например, российские аналоги (GigaChat, YandexGPT), которые заточены под соблюдение локальных законов и находятся под наблюдением наших доблестных стражей правопорядка.

🚨 Важное предупреждение от Квеныча

Если вы работаете с персональными данными — вы по умолчанию становитесь оператором. А это значит, что любая передача информации (даже в ИИ) должна быть законной. Не полагайтесь на «авось»: один неверный клик — и вот вы уже фигурант уголовного дела.





🛡️ Еще одно спасительное решение: локальные ИИ-модели

А теперь — хорошие новости! Всё это не значит, что от ИИ в работе нужно
отказаться совсем. Просто нужно делать это с умом. И здесь на помощь
приходят
локальные модели — то есть те, которые работают прямо на вашем компьютере или на сервере в вашем же офисе. О том, как установить локальную модель на компьютер я писал в одной из предыдущих статей.

Что это такое?
Локальная модель ИИ работает непосредственно на вашем устройстве или
на вашем собственном сервере. Все вычисления происходят локально, данные
никуда не уходят в интернет. Это как иметь собственного робота-юриста
или аналитика, который живёт прямо у вас в офисе и не общается ни с кем на стороне.

Почему это спасение?
С точки зрения закона
152-ФЗ «О персональных данных»,
если информация обрабатывается на ваших мощностях и не передается
третьим лицам (то есть не покидает периметр вашей организации), то такие
действия НЕ подпадают под те самые статьи о незаконной
передаче данных. Вы остаётесь полноправным оператором и контролируете
каждый байт информации.



💎 Вывод

Технологии — это здорово, но только когда они не нарушают закон.
Прежде чем вводть данные в ИИ, подумайте: а не будет ли это потом черевато последствиями? Локальная обработка — это единственный по-настоящему безопасный путь использовать ИИ с персональными данными.
Если есть сомнения — консультируйтесь с юристами.
И да, ставьте лайк статье и подписывайтесь на мой блог — дальше будет ещё больше полезных советов! 😉