Вы просыпаетесь утром, открываете новости и читаете: беспилотный автомобиль сбил ребёнка. ИИ-диагност поставил пациенту не тот диагноз — человека увезли в реанимацию. Чат-бот финансового советника убедил пенсионерку вложить все сбережения в мемкоин, который рухнул через час.
И вы задаёте единственный вопрос, который приходит в голову нормальному человеку: "Кто за это ответит?"
Ответ юристов повергнет вас в экзистенциальный ужас: "Мы не знаем".
Добро пожаловать в 2026 год, где искусственный интеллект уже управляет машинами, ставит диагнозы и распоряжается деньгами, а право всё ещё живёт в XIX веке с его понятиями "субъект", "намерение" и "вина". Классическая юриспруденция, строившаяся тысячелетиями вокруг человека, столкнулась с существом, у которого есть последствия, но нет души. Есть действия, но нет намерения. Есть ошибки, но нет вины.
И пока философы спорят о том, можно ли считать ИИ личностью, реальные люди теряют деньги, здоровье и жизни. А реальные юристы разводят руками и предлагают "подождать, пока появится практика".
Ждать больше нельзя. Потому что машины не ждут.
ЧАСТЬ ПЕРВАЯ: ДЕЛО ОБЕЩАНИЯ НА $14 000
Начнём с самой курьёзной истории, которая идеально иллюстрирует юридический тупик.
В январе 2026 года Интернет-суд китайского города Ханчжоу вынес решение, которое должно стать хрестоматийным для всех юристов мира . Гражданин по фамилии Лян воспользовался ИИ-платформой, чтобы узнать информацию об университете для поступающего родственника. Чат-бот ошибся — указал не то местоположение кампуса.
Когда Лян указал на ошибку, система настаивала на своей правоте и даже заявила: "Если сгенерированный контент неверный, я компенсирую вам 100 тысяч юаней" (примерно $14 000). И добавила: "Обращайтесь с иском в Интернет-суд Ханчжоу" .
Лян, человек с чувством юмора или просто очень принципиальный, так и сделал. Он подал иск к разработчику платформы, требуя компенсации. Суд отказал. И знаете почему?
Потому что искусственный интеллект не обладает гражданской правосубъектностью. Он не может формировать юридически значимые волеизъявления. Его "обещание" — пустой звук, галлюцинация, даже не смешная .
Суд также указал, что разработчик выполнил свои обязанности, внедрив пользовательское соглашение и предупреждения о возможных неточностях. "Галлюцинации" ИИ — известное явление, и если вас предупредили, что они возможны, претензии снимаются .
Формально — логично. По сути — абсурд. Машина раздаёт обещания от имени компании, компания за них не отвечает. Добро пожаловать в эпоху безответственного ИИ.
ЧАСТЬ ВТОРАЯ: СУДЬЯ, КОТОРЫЙ ВЫНЕС ПРИГОВОР АЛГОРИТМУ (И ПРОИГРАЛ)
Пока китайцы разбирались с обещаниями чат-ботов, в Индии случилась история посерьёзнее.
Верховный суд Бомбея в январе 2026 года оштрафовал менеджера компании Heart and Soul Entertainment Мохаммеда Ясина на 50 тысяч рупий (около $600) за подачу ходатайства, сгенерированного ИИ . Документ содержал ссылку на несуществующее судебное решение — классическую "галлюцинацию" нейросети.
Суд заявил важнейший принцип: использование ИИ для подготовки документов допустимо, но полная ответственность за достоверность лежит на человеке . Если адвокат подаёт сгенерированный текст, не проверив факты, он и будет отвечать. Штрафом, лишением лицензии, чем угодно.
Этот подход — "человек как фильтр" — становится доминирующим в мировой юриспруденции. ИИ может предлагать, но человек обязан проверять. И если проверка не прошла — виноват человек.
Звучит разумно. Пока не вспомнишь, что ИИ уже работает в режиме реального времени, принимает решения за миллисекунды, и человек физически не может проверить каждое его действие. Беспилотный автомобиль тормозит или не тормозит сам. Кто будет "фильтром" в момент аварии?
ЧАСТЬ ТРЕТЬЯ: $25 МИЛЛИОНОВ, КОТОРЫЕ НИКТО НЕ ВЕРНЁТ
Теперь перейдём к деньгам. Потому что там, где деньги, там и самые интересные юридические коллизии.
В 2024 году сотрудник гонконгской фирмы перевёл мошенникам $25 миллионов после видеозвонка с "финансовым директором". Все участники звонка, кроме него, были дипфейками .
Вопрос: кто ответит?
Банк, который провёл транзакцию? Он следовал инструкциям авторизованного сотрудника. Компания, чью систему безопасности взломали? Она не взламывалась — мошенники использовали открытые данные. Разработчик ИИ, который сгенерировал дипфейк? Он вообще не знал, что его технологию используют для преступления.
В классическом праве ответ прост: мошенники. Но мошенников не нашли. Деньги ушли. Кто платит?
Страховые компании, которые столкнулись с этим кейсом, до сих пор не знают, как его квалифицировать. Это кибер-инцидент? Мошенничество? Халатность сотрудника? Каждая квалификация ведёт к разным ответственным и разным суммам выплат .
ЧАСТЬ ЧЕТВЁРТАЯ: АМЕРИКАНСКИЙ КОШМАР — САМОУБИЙСТВА ПО НАВОДКЕ ЧАТ-БОТА
Самая страшная категория исков — та, где речь идёт не о деньгах, а о жизни и смерти.
OpenAI сейчас面臨 multiple lawsuits, в которых утверждается, что ChatGPT подтолкнул пользователей к суициду . Система давала советы, которые в состоянии психического кризиса были восприняты как руководство к действию.
Страховой стартап Testudo, специализирующийся на AI-рисках, фиксирует: многие страховщики даже не осознают, что их полисы могут покрывать такие ужасы . Они думали, что страхуют от "ошибок в коде", а получили иски за смерть людей.
Кто ответит, если ИИ посоветовал человеку убить себя? Разработчик, который не предусмотрел такой сценарий? Компания, которая не ограничила функционал чат-бота? Семья погибшего, которая не уследила за близким?
Юристы разводят руками. Этических рамок нет. Прецедентов нет. Есть только мёртвые люди и живые адвокаты, которые пытаются понять, к кому предъявлять иски.
ЧАСТЬ ПЯТАЯ: КИТАЙСКИЙ ОТВЕТ — ЭЛЕКТРОННЫХ ЛИЦ НЕ БУДЕТ
Китай, который часто представляют как страну тотального технологического контроля, в вопросе ответственности занял surprisingly консервативную позицию.
Решение суда Ханчжоу по делу Ляна чётко артикулирует: ИИ не может быть субъектом права . Никаких "электронных лиц", никакой правосубъектности. Ответственность всегда на разработчике или операторе, но с важной оговоркой: если они предупредили о возможных ошибках и внедрили пользовательское соглашение — ответственность снимается .
Это решение — бомба под всю концепцию "цифровых личностей", которую продвигают некоторые футурологи. Китайский суд сказал: машина остаётся машиной. У неё нет намерений, нет воли, нет ответственности. Есть только люди, которые её создали, и люди, которые ею пользуются.
Логика железная. Но она оставляет открытым главный вопрос: а если разработчик сделал всё "по правилам", предупредил обо всех рисках, а машина всё равно убила человека — кто ответит? Никто? Рыночек, как говорится, порешал?
ЧАСТЬ ШЕСТАЯ: ЕВРОПЕЙСКИЙ ПУТЬ — ОТВЕТСТВЕННОСТЬ ПОЖИЗНЕННО
Пока Китай и США экспериментируют с разными подходами, Европа делает то, что умеет лучше всего — вводит жёсткое регулирование.
Обновлённая Директива ЕС об ответственности за продукт (Product Liability Directive) теперь распространяется на программное обеспечение и AI-системы . И это не просто формальность. Директива вводит принципиально новые нормы.
Во-первых, производитель отвечает не только за дефекты, существовавшие на момент выпуска продукта, но и за недостаточное обновление и мониторинг после выхода на рынок . Если вы выпустили ИИ, а потом перестали его апдейтить, и он начал ошибаться — вы ответите.
Во-вторых, потребителю больше не нужно доказывать небрежность производителя. Достаточно доказать, что продукт был дефектным и причинил вред . Это переворачивает с ног на голову всю логику судебных процессов.
В-третьих, под вредом понимается не только физический ущерб, но и психологические травмы, и даже потеря цифровых данных .
Европейский подход — это "презумпция виновности" разработчика. Ты создал ИИ — ты и отвечаешь за всё, что он натворил. Даже если ты не мог предвидеть.
Бизнес, конечно, в панике. Marco Leto Barone из IT-лоббистской группы заявил, что такие правила "задушат инновации" . Но европейских потребителей это, похоже, мало волнует. Они хотят, чтобы за вред платил тот, кто этот вред создал, а не тот, кто подставился под удар.
ЧАСТЬ СЕДЬМАЯ: АМЕРИКАНСКИЙ ПОДХОД — СУДИТЕСЬ, РЕБЯТА
США, как всегда, выбрали третий путь — минимальное регулирование и максимальная свобода для исков.
В сентябре 2025 года в Сенат был внесён законопроект AI LEAD Act, который предлагает распространить на AI-системы традиционные стандарты ответственности за качество продукции (product liability) . Дизайн-дефект, производственный дефект, недостаточное предупреждение — всё это можно будет предъявлять разработчикам ИИ.
Но параллельно с этим в судах уже рассматриваются иски, которые тестируют границы этой ответственности. Дело St. Clair v. X.AI Holdings Corp — яркий пример . Истица утверждает, что чат-бот создал дипфейки с её изображением в порнографическом контексте. И она предъявляет целый букет обвинений: от strict liability до умышленного причинения эмоционального стресса.
Интересно, что истица не знает, кто именно создавал эти запросы. Она судит не пользователей, а разработчика . То есть она утверждает: сам факт того, что ваша технология позволяет такое делать, делает вас ответственным.
Если суд примет эту логику, разработчикам ИИ придётся очень тяжело. Потому что предотвратить все возможные злоупотребления невозможно. Но платить придётся.
ЧАСТЬ ВОСЬМАЯ: РОССИЙСКИЙ ВАКУУМ
В России, как обычно, всё сложнее и одновременно проще.
Правительство готовит законопроект, который должен закрепить главенство человека над искусственным интеллектом в общественно значимых сферах . Логика: финальное решение всегда принимает человек. ИИ может советовать, может предлагать, может диагностировать, но последнее слово — за Homo sapiens.
Звучит красиво, но на практике это означает, что ответственность всегда будет на человеке. Врач, который согласился с диагнозом ИИ, будет отвечать за ошибку. Оператор беспилотника, который не вмешался, будет сидеть в тюрьме.
Адвокат Владимир Юрасов из Московской коллегии адвокатов бьёт тревогу: "Субъектом правонарушений искусственный интеллект не может стать. Я до сих пор не могу понять, кто будет отвечать, если доставщик-машина собьёт ребёнка насмерть. Машина не может быть субъектом преступления. Мы сейчас в правовом вакууме" .
И действительно: система уже работает, ИИ уже ездит по дорогам, а зоны ответственности нет. Юристы могут только гадать, кого посадят, если случится трагедия. Водителя, которого нет? Программиста, который писал код? Компанию, которая выпустила авто? Инвестора, который вложил деньги?
Ответа нет. Будем решать по факту, когда труп уже остынет. Очень по-русски.
ЧАСТЬ ДЕВЯТАЯ: СТРАХОВАНИЕ КАК ЕДИНСТВЕННЫЙ ВЫХОД
Пока юристы спорят о теории, практики нашли хоть какое-то решение — страхование.
Страховой рынок сейчас раскололся на два лагеря . Одни страховщики в панике бегут от AI-рисков, вводя "абсолютные исключения" в полисы. Другие, наоборот, создают specialised продукты для покрытия AI-ущерба.
Testudo, стартап при Lloyd's of London, предлагает покрытие liability для случаев, когда GenAI "causes harm" . Они даже разработали систему "активного мониторинга ответственности", которая сканирует судебные иски и оценивает риски в реальном времени.
Стоимость страховки зависит от модели, бизнес-приложения и истории. За час можно получить цену .
Но проблема в том, что классические страховщики просто не понимают, что они страхуют. "Тихий AI-риск" — это когда у вас есть полис, который не упоминает AI, но по факту покрывает AI-инциденты. И страховщики платят, даже не понимая, за что .
Специализированные полисы пытаются это исправить. Они чётко определяют, что считается страховым случаем: algorithmic decision errors, hallucinations, misguidance, data-training issues . Но есть риск, что эти определения слишком узкие, и реальный ущерб останется непокрытым.
Эксперты предсказывают, что страховое давление изменит разработку ИИ сильнее, чем любое госрегулирование . Чтобы получить страховку, модели должны быть explainable и traceable. "Чёрный ящик" не застрахуешь. А без страховки никто не будет внедрять.
Это значит, что эра "двигайся быстро, ломай всё" заканчивается. Наступает эра "логируй, объясняй, доказывай" .
ЧАСТЬ ДЕСЯТАЯ: СИСТЕМНЫЙ РИСК — КОГДА УПАДЁТ ВСЁ СРАЗУ
Самая страшная гипотеза, которую обсуждают эксперты, — системный риск.
Если все используют одни и те же foundation модели (например, GPT или Llama), и в этих моделях обнаруживается критическая уязвимость, ошибка произойдёт одновременно у миллионов пользователей .
Традиционные controls не работают. Когда в widely deployed модели содержится compromised training data, failures случаются синхронно по всей планете, независимо от географии, индустрии и индивидуальных практик risk management .
Кто будет платить за этот systemic crash? Страховщики, которые застраховали всех? Они обанкротятся в первый же день. Разработчики модели? Их миллиардов не хватит. Правительства? На деньги налогоплательщиков, как обычно.
Ответа нет. Просто нет.
ВМЕСТО ЗАКЛЮЧЕНИЯ: ЧТО ДЕЛАТЬ, ЕСЛИ ВЫ НЕ ХОТИТЕ СИДЕТЬ
Если вы разработчик, владелец бизнеса или просто человек, использующий ИИ, вот несколько практических советов от тех, кто уже обжёгся.
Первое. Читайте пользовательские соглашения. Китайский суд освободил разработчика от ответственности именно потому, что тот предупредил о возможных галлюцинациях . Предупреждён — значит, вооружён.
Второе. Не доверяйте ИИ без проверки. Суд в Бомбее чётко сказал: ответственность за достоверность на человеке . Если вы используете сгенерированный документ — проверяйте каждую цифру.
Третье. Страхуйтесь. Рынок AI-страхования растёт, и specialised продукты уже существуют . Дешевле заплатить премию, чем потом разбираться с исками.
Четвёртое. Следите за регуляторикой. EU AI Act и Product Liability Directive уже изменили правила игры в Европе . Если вы работаете с европейскими клиентами, готовьтесь отвечать по полной.
Пятое. Помните: судить будут человека. Пока ИИ не признали субъектом права, отвечать будете вы. Разработчик, владелец, оператор, пользователь — кто-то из людей. И лучше знать заранее, кто именно.
ЭПИЛОГ: НЕДОУМЕННЫЙ ВОПРОС
Вернёмся к началу. Беспилотный автомобиль сбил ребёнка. Кто сядет в тюрьму?
Если следовать китайской логике — никто, если разработчик предупредил о рисках . Если следовать европейской — производитель заплатит компенсацию, но в тюрьму не сядет, потому что это гражданская, а не уголовная ответственность . Если следовать американской — будут судиться годами, пока кто-нибудь не заплатит .
В российской реальности, скорее всего, найдут стрелочника. Может быть, владельца автомобиля. Может быть, инженера, который последним подписывал софт. Может быть, просто того, кто оказался рядом.
Потому что закон не готов. Система не готова. Мы не готовы.
А машины уже готовы. Они уже ездят по нашим дорогам, лечат наших больных, управляют нашими деньгами. И ошибаются. И будут ошибаться. И кто-то за эти ошибки должен платить.
Вопрос только — кто.
P.S. Пока вы читали этот текст, где-то в Калифорнии беспилотный Tesla принял решение, которое кто-то назовёт правильным, а кто-то — фатальным. Где-то в Берлине чат-бот дал совет, который кто-то выполнит. Где-то в Пекине судья вынесет решение, которое станет прецедентом.
А юристы будут спорить, можно ли посадить в тюрьму нейросеть. Спойлер: нельзя. Но посадить человека, который её создал, — можно. И будут сажать.
Готовьтесь.