Алгоритмы, используемые в бизнес-процессах, повышают прибыль компаний и приносят выгоду потребителям. Но алгоритмы способны также наносить ущерб конкуренции, если используются для сговора либо если вступают в сговор без участия человека.
В 1970-х годах Томас Питерффи, основатель компании Interactive Brokers, и Генри Ярецки впервые применили компьютерные алгоритмы в анализе рыночных данных о ценообразовании опционов. Алгоритмы, взвешивая различные факторы, выдавали рекомендации о покупке или продаже опционов. Поскольку компьютеры могли обрабатывать данные быстрее и искуснее, чем люди, алгоритмическая торговля давала преимущество на рынке тем, кто ее использует. Ноу-хау Питерффи и Ярецки считается первым опытом применения алгоритмов для ценообразования.
Алгоритм – это набор шагов или инструкций, которые выполняет компьютер для решения конкретной задачи. Алгоритмы используются во многих цифровых технологиях, от операционных систем до приложений, а искусственный интеллект (ИИ) – это одна из областей применения алгоритмов. В основе ИИ лежат наборы алгоритмов, которые позволяют последовательно обрабатывать массивы данных, выявляя закономерности, в том числе для генерирования решений задач, поставленных человеком.
Сегодня алгоритмы широко используются компаниями из самых разных сфер бизнеса и для самых разных задач – для ценообразования, мониторинга, анализа спроса и предложения и т.д. Использование алгоритмов, с одной стороны, приносит выгоду и компаниям, и потребителям: например, согласно одному из исследований, алгоритмическое персонализированное ценообразование может повышать прибыль до 86%, при этом более 60% потребителей за счет персонализации могут получать более низкие цены.
С другой стороны, использование алгоритмов создает риски сговора компаний или другого антиконкурентного поведения. Компании могут обмениваться данными (например, конкуренты на одном рынке), использовать одно программное обеспечение, которое будет генерировать схожие результаты. В сговор могут вступить не только компании, но и используемые ими самообучающиеся алгоритмы ИИ. Будучи изначально запрограммированы на максимально эффективное достижение определенной цели (например, на максимизацию прибыли), алгоритмы вместо того, чтобы конкурировать друг с другом для ее достижения, могут начать выравнивать цены.
Для оценки негативного влияния алгоритмов на конкуренцию разработаны
«теории вреда», который может причиняться алгоритмами (статья Марии Гирич, научного сотрудника лаборатории анализа лучших международных практик Института экономической политики им. Е.Т. Гайдара).
Три типа вреда
Тип первый – использование алгоритмов в явном сговоре. Это происходит при договоренностях между компаниями, письменными или устными, которые реализуются при помощи алгоритмов. Например, это может быть соглашение о фиксировании цен, манипулировании на торгах и т.п.
Тип второй – вступление в сговор без коммуникации субъектов рынка, но путем использования ими одних и тех же алгоритмов. В таком случае компании напрямую не взаимодействуют друг с другом для сговора. Но за счет использования единых алгоритмов, предоставленных третьим лицом, например разработчиком ПО, могут достигнуть «молчаливого сговора».
Тип третий – автоматизированный сговор алгоритмов. Сегодня развиваются алгоритмы, которые запрограммированы учиться принимать наилучшее решение (самообучающиеся алгоритмы). Такие алгоритмы в одностороннем порядке подают ценовые сигналы, сообщая о своих стратегиях ценообразования другим алгоритмам. В результате несколько алгоритмов могут избрать стратегию сговора как наиболее оптимальную для достижения максимального результата. Например, установить цену, которую они считают оптимальной для всех. При этом сгенерированные алгоритмом решения человеку может быть трудно предвидеть.
Автономный сговор алгоритмов на данный момент находится вне правового поля: существующие в законодательстве стран нормы к нему не применимы – с точки зрения закона алгоритмы в сговор не вступают.
Автоматизированный сговор алгоритмов
Алгоритмический сговор не предполагает какого-либо участия человека – самообучающиеся алгоритмы могут принимать решения автономно. С точки зрения правовой квалификации алгоритмы не обладают правосубъектностью, то есть не могут быть лицом, обладающим каким-либо правами или обязанностями. Алгоритмы выступают техническим средством, поэтому не могут подпадать под действие норм о сговоре хозяйствующих субъектов и не могут нести за него ответственность.
В случае автоматизированного сговора алгоритмов остается неясным, как определить лицо, ответственное за сговор. Ведь разработчики или пользователи не программируют алгоритмы на вступление в сговор. А чтобы в него вступить, конкуренты должны коммуницировать друг с другом, чего не происходит, когда в сговор вступают два самообучающихся алгоритма, которые не контролируются человеком.
В науке ведутся споры о том, как регулировать сговор алгоритмов. Например, предлагается расширить понятие сговора, включив формы, в которых отсутствует прямая коммуникация субъектов (в том числе автоматизированный сговор), или вводить «разрушительный алгоритм», который будет нарушать алгоритмическую координацию.
В практике антимонопольных органов стран кейсы выявления сговора алгоритмов на данный момент отсутствуют: он выходит за рамки антимонопольного законодательства. Тем не менее страны повышают надзор за использованием алгоритмов, в том числе самообучающихся, за счет требований отчетности и раскрытия информации о работе алгоритмов, что в будущем может помочь антимонопольным органам пресекать незаконное поведение.
Например, в ЕС «Закон о цифровых рынках», направленный на предотвращение антиконкурентных практик крупных платформ, в 2022 г. установил право Комиссии в рамках расследований запросить у платформ доступ к любым данным и алгоритмам, а также потребовать объяснений по ним. В США законопроект о противодействии алгоритмическому сговору предлагает систему аудита используемых компаниями алгоритмов ценообразования: по запросу генпрокурора или FTC компании должны будут предоставить отчеты, в частности, о том, кто разрабатывает алгоритмы ценообразования, объяснить правила генерации рекомендаций, типы используемых данных, их источники и процессы сбора, а также указать, определяет ли алгоритм решения автономно и проверяются ли такие решения человеком.
В России на данный момент отсутствуют какие-либо требования к использованию ИИ. Если рассуждать о том, как развивать дальнейшее регулирование и каким образом квалифицировать использование алгоритмов как «незаконный сговор», то на данном этапе, как считают некоторые специалисты, важно не внесение каких-либо изменений в законодательство о конкуренции (например, введение ограничений для использования алгоритмов), а развитие общих требований к алгоритмам, включая ИИ.
Эти требования могут касаться, в частности, объяснимости работы алгоритмов и прослеживаемости их использования – для понимания источников и типов данных, процессов генерирования или принятия решений и их реализации. Важно проводить анализ известных и разумно прогнозируемых рисков, которые алгоритмы могут представлять для экономики и рынков. И принимать меры по управлению такими рисками, например за счет обеспечения человеческого надзора за функционированием алгоритмов.