Найти в Дзене

Может ли медиа стать «мягким регулятором» безопасного развития ИИ?

Представьте, что вы ищете в интернете совет: «Почему сыр не держится на пицце?»
И вот — ответ от искусственного интеллекта: «Добавьте 1/8 стакана нетоксичного клея в соус — и сыр будет липнуть лучше». Звучит как шутка, но такой случай действительно произошёл в 2024 году с поисковой системой Google. И хотя мало кто воспринял совет всерьёз, он обнажил большую проблему: можно ли доверять ИИ и насколько он безопасен для пользователей? Обычно контроль за безопасностью технологий обеспечивают правительства с помощью законов и стандартов. Но у искусственного интеллекта всё развивается слишком быстро. Пока законодатели думают и согласовывают правила, новые алгоритмы уже внедряются в миллионы приложений. И здесь на сцену выходит медиа — журналисты, блогеры, пользователи соцсетей. Их расследования и публикации могут разрушить репутацию корпорации быстрее любого судебного разбирательства. Именно этот эффект исследовали авторы работы, на которой основана статья. Учёные задаются вопросом: может ли
Оглавление

Как репутация и общественное мнение влияют на то, какие технологии приходят в нашу жизнь

Введение: когда ИИ советует добавить клей в пиццу

Представьте, что вы ищете в интернете совет: «Почему сыр не держится на пицце?»

И вот — ответ от искусственного интеллекта:
«Добавьте 1/8 стакана нетоксичного клея в соус — и сыр будет липнуть лучше».

Звучит как шутка, но такой случай действительно произошёл в 2024 году с поисковой системой Google. И хотя мало кто воспринял совет всерьёз, он обнажил большую проблему: можно ли доверять ИИ и насколько он безопасен для пользователей?

Обычно контроль за безопасностью технологий обеспечивают правительства с помощью законов и стандартов. Но у искусственного интеллекта всё развивается слишком быстро. Пока законодатели думают и согласовывают правила, новые алгоритмы уже внедряются в миллионы приложений.

И здесь на сцену выходит медиа — журналисты, блогеры, пользователи соцсетей. Их расследования и публикации могут разрушить репутацию корпорации быстрее любого судебного разбирательства. Именно этот эффект исследовали авторы работы, на которой основана статья.

Идея исследования: медиа как «мягкий регулятор»

Учёные задаются вопросом: может ли медиа выполнять роль своеобразного арбитра, который без законов и штрафов заставляет компании делать ИИ безопаснее?

Чтобы разобраться, они использовали эволюционную теорию игр. Это раздел математики, который изучает, как меняются стратегии участников системы (например, людей, животных или компаний), если их успех зависит от взаимодействия с другими.

В модели было три «игрока»:

  • Создатели ИИ — могут выпускать безопасные продукты (дороже и сложнее) или небезопасные (дешевле, но рискованно).
  • Пользователи — решают, доверять ли продукту.
  • Медиа — сообщают о репутации разработчиков: кто надёжный, а кто «халтурит».

Важно: в этой системе у медиа нет прямой власти. Они лишь влияют на мнение пользователей, а через него — на прибыль компаний.

Как работает модель: аналогия с рынком еды

Представим ресторанный бизнес.

  • Ресторатор может готовить из качественных продуктов (дорого, но безопасно) или экономить и покупать испорченное мясо (дёшево, но риск для клиентов).
  • Посетитель может прийти в ресторан или пройти мимо.
  • А газета-рецензент публикует отзывы: у кого свежие продукты, а у кого отравления.

Если медиа надёжно предупреждает клиентов, рестораторам становится выгоднее работать честно: иначе они теряют репутацию и доход. Но если медиа ошибается или слишком дорого обходится (например, подписка стоит больше самого обеда), система рушится — и на рынке побеждают небезопасные игроки.

Главные результаты исследования

Учёные провели как аналитические расчёты, так и компьютерные симуляции, где тысячи виртуальных пользователей и создателей ИИ взаимодействовали по правилам модели.

Выводы:

  1. Медиа действительно может стимулировать безопасное развитие ИИ.

    Если информация достаточно точная, а цена её получения разумная, пользователи доверяют только «чистым» продуктам, и компании начинают вкладываться в безопасность.
  2. Есть хрупкий баланс.
    Если расследования слишком дороги для журналистов или самих пользователей, уровень доверия падает.
    Если сигналы медиа слишком шумные (ошибки, фейки, предвзятые обзоры), система рушится.
  3. Система склонна к циклам.
    Когда все пользуются надёжными медиа, компании делают безопасные продукты.
    Тогда часть пользователей расслабляется и начинает доверять любому ИИ.
    Это даёт шанс «халтурщикам» снова выйти на рынок.
    После скандалов ценность медиа возрастает — и цикл повторяется.
  4. Исход зависит от начальных условий.

    Если в начале большинство компаний выпускает небезопасный ИИ, медиа может не успеть переломить ситуацию, и рынок закрепится в неблагоприятном состоянии.

Почему это важно для общества

Сегодня медиа не просто информирует — оно становится частью системы регулирования технологий. Примеры:

  • Репутационные скандалы вокруг Apple (подслушивание Siri) или OpenAI (жёсткие NDA для сотрудников) привели к изменению политики компаний.
  • Общественное давление после расследований вынудило Google и других игроков дорабатывать продукты.

Таким образом, журналисты и даже активные пользователи соцсетей — это «мягкий регулятор», который не выписывает штрафы, но может дорого стоить компаниям.

Ограничения и будущее

Авторы честно отмечают, что их модель пока упрощена:

  • Рассматривались только два типа медиа — надёжное и ненадёжное, хотя в реальности спектр шире.
  • Игнорировались политические и идеологические предвзятости СМИ.
  • Учитывалась только безопасность для непосредственного пользователя, а не масштабные эффекты вроде дискриминации или влияния на выборы.

В будущем исследователи планируют включить в модели государственное регулирование вместе с медиа, а также учитывать роль социальных сетей, где качество информации может сильно колебаться.

Заключение: «четвёртая власть» в цифровую эпоху

Результаты исследования показывают: медиа способно стать реальным рычагом управления безопасностью ИИ, особенно пока государственные правила ещё формируются.

Можно сказать, что журналисты и общественное мнение выполняют функцию «сигнальной системы» общества, похожей на иммунитет. Когда появляется «токсичный» продукт, медиа запускает «воспаление» — скандал, бойкот, резонанс. И это заставляет компании «лечить болезнь» — делать ИИ безопаснее.

Но как и в организме, иммунитет работает не всегда: он может перегрузиться, ошибиться или слишком дорого обходиться. Поэтому будущее регулирования ИИ, вероятно, будет гибридным — сочетание законов, саморегуляции компаний и давления со стороны медиа.

Подписывайтесь на канал чтобы не пропустить новые статьи