Найти в Дзене
DigEd

Журнал публикует серьезные ошибки в первой статье о здоровье, созданной искусственным интеллектом

Владельцы спортивного иллюстрированного и мужского журнала обещали быть достойными с ИИ. Затем они напортачили со своей самой первой историей написанной искусственным интеллектом — и выпустили огромные исправления, когда мы поймали их.

Автор Джон Кристиан

Когда издатель Sports Illustrated и Men’s Journal объявил на прошлой неделе, что его журналы начнут публиковать статьи, созданные с помощью ИИ, его генеральный директор заверил читателей, что эта практика не приведет к снижению качества.

«Речь идет не о том, чтобы «прокачивать ИИ-контент и делать как можно больше», — сказал Wall Street Journal генеральный директор Arena Group Росс Левинсон. «Google накажет вас за это, и больше не значит лучше, лучше — значит лучше».

Ставки были высоки, и не только потому, что небольшая горстка изданий, которые уже пытались заменить людей-писателей системами ИИ, такие как CNET, столкнулись с резкой реакцией на ошибки и плагиат, обнаруженные в работе ИИ. В ключевом смысле набег Arena Group был еще более опасным: она использовала ИИ, чтобы давать читателям советы по особо важным темам здоровья и медицины.

Возьмите самую первую статью, опубликованную ботом в Men’s Journal, которая носит название «Что все мужчины должны знать о низком уровне тестостерона» и звучащую по-человечески подпись «Редакторы Men’s Fitness». В статье содержалось множество медицинских заявлений, советов по питанию и образу жизни, и даже предлагалось конкретное лечение в виде заместительной терапии тестостероном, и все это предназначалось для читателей, ищущих рекомендации по серьезной проблеме со здоровьем.

Как и большинство контента, созданного ИИ, статья была написана с авторитетной уверенностью настоящего эксперта. В ней были цитаты академического вида, а раскрытие информации в верхней части придало дополнительную достоверность, заверив читателей, что оно было «просмотрено и проверено нашей редакцией».

Но при ближайшем рассмотрении все развалилось. Брэдли Анавальт, главный врач Медицинского центра Вашингтонского университета, который занимал руководящие посты в Эндокринном обществе, рецензировал статью и сказал Futurism, что она содержит постоянные фактические ошибки и неверные характеристики медицинской науки, которые дают читателям глубоко искаженное понимание вопросы здравоохранения.

"В этой статье много неточностей и лжи", - сказал он. «В ней отсутствуют многие нюансы, которые имеют решающее значение для понимания нормального мужского здоровья».

Анавальт указал на 18 конкретных ошибок, которые он нашел в статье. Некоторые были вопиюще неверные в основных медицинских вопросах, таких как приравнивание низкого уровня тестостерона в крови к гипогонадизму, более широкому медицинскому термину. Другие утверждали, что между диетой, уровнем тестостерона и психологическими симптомами существует тесная связь, которая, по словам Анавальт, просто не подтверждается данными.

«Близость к научным данным и литературе достаточна, чтобы звучать правдоподобно, — сказал Анавальт, — но есть много ложных и вводящих в заблуждение заметок».

В целом, тщательное изучение со стороны эксперта делает набег Arena на контент, созданный искусственным интеллектом, менее похожим на новый мощный набор инструментов, который генеральный директор Arena Левинсон описал в Wall Street Journal, а больше на циничный захват денег, направленный на создание грязно-дешевого контента, предназначенного для привлечения читателей из Google, даже если это означает предоставление им заведомо ложной медицинской информации.

Стоит отметить, что Men’s Journal уже прошел через выжимку. В начале 2020 года сообщалось, что тогдашний владелец журнала уволил всю его редакцию. Arena Group купила его всего несколько месяцев назад, в декабре 2022 года, и в настоящее время на его странице штата указаны только пять сотрудников, двое из которых работают неполный рабочий день.

-2

Другими словами, ИИ, кажется, дает руководителям медиа новый инструмент, чтобы ускорить безжалостную гонку ко дну и без того разрушенной журналистской индустрии, поскольку такие операторы, как Arena, используют его для быстрой закачки некачественного контента в шелуху когда-то любимых изданий — к черту качество. .

Когда Futurism обратился к Arena и нескольким представителям Men’s Journal по поводу проблем в статье о тестостероне, сгенерированной ИИ, начал появляться каскад изменений, исправляющий различные ошибки, на которые указал Анавальт, до тех пор, пока статья не стала почти неузнаваемой.

Новое сообщение также появилось внизу, ссылаясь на несколько критических замечаний Анавальта: «Первоначальная версия этой истории описывала заместительную терапию тестостероном как использование «синтетических гормонов» и указывала плохое питание как одну из наиболее распространенных причин низкого тестостерона, что является неточным».

Но в статью было внесено множество дополнительных изменений, которые не были упомянуты в этой заметке, например, было удалено утверждение о рисках для здоровья от молока, отмеченное Anawalt. И многие другие его критические замечания остались без внимания.

После того, как статья о тестостероне была полностью переписана, представитель Arena прислал краткое заявление.

«Вместе со многими медиа-компаниями мы изучаем различное программное обеспечение для искусственного интеллекта, которое может быть дополнением к рабочему процессу наших редакционных групп», — говорится в сообщении. «Первоначальный пилотный проект по сопоставлению ранее опубликованного архивного контента продемонстрировал потенциал ИИ в сочетании с редакторами и писателями. Эти ранние эксперименты находятся в стадии разработки. Основываясь на этих знаниях и постоянном мониторинге, мы продолжим совершенствовать использование этих инструментов как часть наш рабочего процесса, который был и всегда будет зависеть от редакционного надзора».

На вопрос, считает ли Arena себя ответственной за публикацию советов по здоровью, которые необходимо почти полностью переписать, уверена ли она в точности остальных статей бота и планирует ли она продолжать публиковать контент ИИ, представитель отправил краткий и трудный для понимания ответ.

«Уверенно, да, но никаких ближайших планов», — написали они, пояснив, что компания «уверена в статьях» и «продолжает следить за тем, как мы улучшаем наших издателей, достигая потребителей новыми способами».

Предоставление ошибочных советов по здоровью, созданных ИИ, может привести к серьезным последствиям со стороны Google, де-факто посредника между такими издателями, как Arena, и потенциальными читателями. Буквально на этой неделе Google выпустил новые рекомендации для издателей по использованию ИИ для создания контента, заявив, что будет терпеть эту практику, но будет уделять особое внимание надежности результатов поиска, включающих «медицинскую, гражданскую или финансовую информацию».

-3

Неуклюжее развертывание технологии ИИ в Men’s Journal отражает то, что мы видели в других местах, поскольку издатели изо всех сил пытались внедрить ИИ так, чтобы это было полезно для читателей.

Например, многие были встревожены, обнаружив в январе, что известный сайт технических новостей CNET незаметно публикует десятки статей о личных финансах, созданных искусственным интеллектом. После почти всеобщего осуждения дальнейшие отчеты Futurism показали, что статьи, созданные ИИ, содержали базовые ошибки и в значительной степени являлись плагиатом.

-4

После нашего сообщения CNET вместе с дочерними сайтами Bankrate и CreditCards.com, также принадлежащими издателю Red Ventures, приостановила публикацию контента ИИ для проверки. В конце концов CNET признала, что более половины статей, опубликованных ботом, содержали либо фактические ошибки, либо плагиат, либо и то, и другое.

Несмотря на все это, CNET пообещала продвигать статьи, созданные ИИ, — то есть, как только спадет негативная волна прессы.

-5

Как и Men’s Journal, CNET переживала тяжелые времена, прежде чем обратилась к контенту с использованием ИИ. Когда-то она был титаном технической журналистики, но недавно его сотрудники рассказали The Verge, что с момента его приобретения Red Ventures в 2020 году его редакционная независимость была подорвана давлением, направленным на благосклонное отношение к рекламодателям.

-6

В общем, низкопробность усилий CNET в области искусственного интеллекта, похоже, предвосхитила попытки Men’s Journal. Вместо того, чтобы учиться на ошибках CNET и тщательно исследовать работу, созданную ИИ, на предмет каких-либо признаков слабости, Men's Journal — или Arena Group, марионетившая свой награбленный панцирь, в зависимости от обстоятельств, — похоже, попали в ту же ловушку: видя, что ИИ такие системы, как ChatGPT, могут легко производить уверенно звучащий контент, ошибочно принимая это убеждение за точность.

Являются ли фиаско на CNET и Men’s Journal признаком грядущих событий? Может быть, но они не должны быть.

Это правда, что если общественность — не говоря уже о регулирующих органах и влиятельных игроках, таких как Google, — позволит измученным корпорациям завалить Интернет контентом, рассылаемым ИИ, который они не удосужились понять, она рискует заглушить хорошую журналистику и делать безответственные советы, массовой дезинформацией.

Но даже если у этих издателей нет стыда, протест против практики засорения сети мусором, написанным ИИ, может иметь ощутимые последствия. Например, это могло бы отговорить больше брендов от того, чтобы присоединиться к победе в будущем. Также возможно, что рекламодатели откажутся от финансирования бесполезного контента, созданного искусственным интеллектом. Или, возможно, наиболее значимо, это может подтолкнуть Google к рассмотрению реальных последствий для публикаций, которые используют ИИ для публикации мусора в масштабе.

Куда что-то из этого попадет, сказать невозможно. Но это будет иметь серьезные последствия для будущего Интернета.

Источник