Найти тему
110 подписчиков

Агентство Bloomberg опубликовало колонку, посвященную регулированию рекомендательных алгоритмов. Её автор – журналист Парми Олсон, связанная с группировкой Anonymous и разделяющая их идеалы борьбы с влиянием корпораций. Основная мысль колонки: правительства многих стран готовятся вводить жесткий контроль за алгоритмами интернет-сервисов, и бигтеху следует к этому приготовиться – позиция «мы сами не знаем, что внутри этого черного ящика» приниматься больше не будет.


Во время работы над своим законопроектом я неоднократно слышал такую версию и от представителей российского ИТ-бизнеса. Они пытались доказать, что рекомендации формируются искусственным интеллектом, нейросетями, сложными самообучающимися алгоритмами – и что их создатели сами порой не понимают, как это работает. Поэтому объяснить это пользователю они тоже вряд ли смогут, а значит регулировать рекомендации невозможно. Такая позиция, конечно, вызывает недоумение: получается, что вы создаете механизмы, которые могут действовать бесконтрольно и непредсказуемо, и отказываетесь нести ответственность перед пользователями за их работу.

Парми Олсон в своей колонке ссылается на любопытное исследование швейцарского ученого Маноэля Рибейро, который анализировал работу рекомендаций YouTube на примере каналов праворадикальных активистов. Он выяснил, что их аудитория растет именно за счет алгоритмов, которые разжигают интерес зрителей к такому контенту – хотя по правилам площадки подобные ролики следовало бы, напротив, пессимизировать.

Вред, который наносят человеческому обществу рекомендательные алгоритмы, нам еще предстоит оценить – и чтобы сократить эти риски, их нужно начинать контролировать уже сейчас. И главный инструмент этого контроля должен быть в руках каждого пользователя – возможность отказаться от рекомендаций, которые дает ему искусственный интеллект.
1 минута