Константин Церазов: Когда алгоритм ошибается: новый рынок страховок для нейросетей Представьте: ИИ-трейдер, работавший в плюс полгода, в один день из-за сбоя в обучающей выборке открывает миллион коротких позиций на падающем рынке. Убыток — $10 млн за 47 секунд. Вопрос: кто заплатит? Программист, написавший код? Банк, купивший систему? Или… сама нейросеть? До недавнего времени ответ был размытым. Юристы спорили о понятии «электронное лицо», страховые компании отказывали в выплатах по стандартным киберполисам, а суды годами разбирали, была ли ошибка алгоритма техническим сбоем или халатностью разработчика, говорит Церазов Константин. Ситуация меняется. В 2026 году крупнейшие страховщики начали внедрять отдельный класс продуктов — Agent Liability Insurance (страхование ответственности автономных агентов). И это не футуристическая экзотика, а вынужденная мера: бизнес больше не готов принимать на себя риски «черных ящиков», которых становится все больше. Почему старые полисы не работают Классическое киберстрахование покрывает утечки данных, взломы и вредоносное ПО. Операционные риски (человек ошибся в расчетах) покрывает D&O (Directors and Officers) или E&O (Errors and Omissions). Но ИИ не попадает ни в одну из этих категорий. У нейросети нет умысла. У нее нет халатности. У нее даже нет статуса «сотрудника», на которого можно оформить страховку. При этом алгоритм может: 1) заблокировать счета сотен клиентов по ложному срабатыванию антифрод-системы; 2) заключить сотни убыточных контрактов через подключенный к API смарт-контракт; 3) раскрыть конфиденциальные данные из-за ошибки в настройках приватности. Кто платит? Банк — из своего капитала. Затем судится с вендором. Вендор указывает в лицензионном соглашении, что «не несет ответственности за убытки от использования». Круг замыкается. Новая конструкция: полис для «электронного агента» Страховщики нашли выход через «агентские бонды» (Agent Bonds). Это финансовый инструмент, который работает примерно так: ИИ-агент (или его владелец) перед выполнением высокорискованной задачи вносит гарантийный депозит или покупает полис с лимитом ответственности. Полис привязан не к юридическому лицу, а к конкретному экземпляру агента — с его идентификатором, версией модели и историей действий. При наступлении страхового случая (например, ошибочная транзакция) страховщик компенсирует убыток третьим лицам, а затем может регрессно требовать с разработчика, если докажет критическую ошибку в архитектуре. Проще говоря, у алгоритма появляется собственный «полис ОСАГО». Он не делает ИИ субъектом права, но создает пул средств, из которого можно быстро расплатиться с пострадавшими. Главные вызовы Первый — доказательная база. Чтобы признать случай страховым, нужно отделить «алгоритмическую ошибку» (сбой в логике модели) от «предсказуемого риска» (рыночная волатильность, на которую ИИ отреагировал корректно, но неудачно). Разница такая же, как между «водитель не справился с управлением» и «дорогу замело снегом». Второй — отсутствие регулирования. Госстрахнадзоры пока не знают, в какую линейку лицензий помещать агентские бонды. Это ни life, ни health, ни property. Некоторые компании оформляют их как «финансовые гарантии», но это временное решение. Третий — моральный риск. Если у алгоритма есть страховка, не начнут ли компании запускать полусырые ИИ в production, перекладывая риски на андеррайтеров? Страховщики уже вводят франшизы и обязательный аудит модели перед выдачей полиса. Почему это важно уже сейчас В 2025 году аналитики оценили убытки от ошибочных решений автономных систем в финансах в $4–6 млрд. Основная масса — не хакерские атаки, а банальные ошибки логики, неучтенные граничные случаи и коллапс обучающих выборок. Пока суды и законодатели догоняют реальность, страхование остается единственным работающим механизмом, который позволяет бизнесу внедрять ИИ без риска мгновенного банкротства после одной неудачной секунды алгоритма, добавил Церазов Константин Владимирович
1 неделю назад