Можем ли мы заново научиться распознавать правду?
Швейцария — это фейк. Именно в это хотят заставить вас поверить художник Патрик Карпиченко и Фотомузей Винтертура в своем фильме 2025 года «Швейцария — это фейк». Используя изображения, созданные с помощью ИИ, включая коров, доставляемых в страну вертолетом, и туристов с завязанными глазами, контрабандой ввозимых в Австрию, фильм создает образ Швейцарии как тщательно продуманной выдумки. Карпиченко отметил, что цель заключалась в том, чтобы показать, «как легко можно поставить под сомнение реальность».
81% людей говорят: «Правда сегодня — это исчезающее понятие», а 71% считают, что ИИ делает невозможным понимание того, что является правдой в мире. По мере появления все большего количества инструментов ИИ, позволяющих людям создавать реалистичные видео и аудио всего за несколько кликов, необходимость сохранения правды становится все более актуальной.
Дезинформация и подделка изображений уже были широко распространены до запуска двух новых видеоприложений на основе ИИ — Meta’s Vibes и Sora 2 от Open AI в сентябре 2025 года, — которые вывели это на новый уровень. Как отметила в интервью Digiday основательница Every Problem Solved Лесли Морган: «Одно дело использовать ИИ как инструмент для повышения креативности, и совсем другое, когда он начинает подрывать нашу способность различать, что реально, что исторически достоверно или что является граждански ответственным».
В ответ на это появляются решения, от инструментов обнаружения до маркировки контента. Коалиция за происхождение и подлинность контента (Coalition for Content Provenance and Authenticity), группа крупных технологических и медиакомпаний, включая Adobe, BBC и Microsoft, предлагает стандарт Content Credentials. Он действует как цифровая этикетка с информацией о пищевой ценности, позволяя создателям демонстрировать подлинность своего контента и подтверждать, как и использовался ли ИИ в их работе, стремясь укрепить доверие аудитории. Аналогичным образом, Google, Meta, Pinterest и TikTok внедрили технологию водяных знаков для идентификации контента, созданного искусственным интеллектом.
Однако наряду с техническими решениями многие выступают за повышение уровня грамотности в вопросах правдивости информации. Рен Нг, профессор информатики Калифорнийского университета в Беркли, заявил газете New York Times, что, хотя наш мозг запрограммирован верить тому, что мы видим, «мы можем и должны научиться останавливаться и думать о том, является ли видео, да и любой другой медиаконтент, чем-то, что произошло в реальном мире».
Правительства активизируются, чтобы помочь. Шведское агентство психологической защиты поручило организации Bildkonst Sverige (Visual Arts Sweden) изучить, как один из аспектов — визуальная грамотность — может бороться с дезинформацией, особенно среди молодежи. «Мы потребляем изображения гораздо быстрее, чем читаем текст», — говорит Магдалена Мальм, директор Visual Arts Sweden. «Из-за этого непосредственного воздействия дезинформация, как правило, сильнее влияет на наши эмоции. Во-вторых, наши навыки чтения изображений намного слабее, чем навыки чтения текста, — и поэтому мы более уязвимы».
Сандер ван дер Линден, профессор социальной психологии Кембриджского университета, исследует превентивные способы «прививки» людей от дезинформации, используя стратегию, известную как «предварительное разоблачение», при которой люди подвергаются воздействию ослабленных версий манипулятивных тактик, чтобы лучше распознавать и противостоять им. В сотрудничестве со Стэнфордским университетом его команда разработала мини-браузерную игру под названием Bad Vaxx (адаптация более ранней игры Bad News), которая использует предварительное разоблачение для значительного улучшения способности игроков распознавать ложную информацию и снижения готовности ею делиться.
Также появляются влиятельные лица в области грамотности в сфере ИИ, такие как Джереми Карраско, бывший видеооператор, который повышает осведомленность, анализируя и деконструируя контент, созданный ИИ. Платформы также поддерживают эти усилия: TikTok объявил о создании фонда в размере 2 миллионов долларов для экспертов, занимающихся созданием образовательного контента в области грамотности в сфере ИИ.
Люди доверяют собственному суждению: 68% говорят, что уверены в своей способности отличать подлинный контент от фейкового в интернете, а 87% заявляют: «Я бы никогда не поделился ничем в социальных сетях с другими, если бы не был на 100% уверен в его правдивости». Несмотря на эту уверенность, борьба с дезинформацией промышленного масштаба, вероятно, потребует целого ряда решений, от регулирования до технологий обнаружения и повышения уровня грамотности в этой области.
Почему это интересно
Правда не умерла, но находится под угрозой. Как говорит автор и футуролог Шон Пилло де Шенеси в интервью VML Intelligence, мы живем в условиях, когда «правда намеренно искажается, доверие катастрофически обесценено, а организованная дезинформация становится растущим бизнесом». Защита? Сочетание технологий, регулирования и образования, при этом бренды и платформы играют решающую роль в восстановлении грамотности в вопросах правды.