Исследование фокус-группы Poynter и Университета Миннесоты выявило отношение потребителей новостей к раскрытию информации, доверию и обману.
Автор Дженнифер Орси
Иногда, когда речь заходит об использовании искусственного интеллекта в журналистике, люди думают о калькуляторе — общепринятом инструменте, который делает работу быстрее и проще.
Иногда им кажется, что это откровенное мошенничество – выдавать работу робота за человека-журналиста.
Иногда они вообще не знают, что думать, и это их беспокоит.
Все эти взгляды возникли в результате нового исследования фокус-группы Университета Миннесоты, проведенного по заказу Института Poynter, об отношении потребителей новостей к ИИ в журналистике.
Исследование, проведенное Бенджамином Тоффом, директором Центра журналистики Миннесоты и доцентом Школы журналистики и массовых коммуникаций Миннесоты Хаббарда, было представлено участникам саммита Poynter по искусственному интеллекту, этике и журналистике 11 июня. Саммит собрал десятки экспертов. журналисты и технологи обсудят этические последствия для журналистов, использующих инструменты искусственного интеллекта в своей работе.
«Я думаю, что это хорошее напоминание о том, что нельзя слишком сильно опережать публику», — сказал Тофф, говоря о ключевых выводах для редакций новостей. «Как бы ни была польза от использования этих инструментов… вы должны иметь возможность сообщать об этом способами, которые не будут отталкивать большие сегменты общественности, которые действительно обеспокоены тем, что эти разработки будут означать для общества в целом. ».
В фокус-группах, проведенных в конце мая, приняли участие 26 среднестатистических потребителей новостей, некоторые из которых знали достаточно много об использовании ИИ в журналистике, а некоторые знали мало.
Тофф обсудил три ключевых вывода фокус-групп:
- Фоновый контекст беспокойства и раздражения: люди часто беспокоятся по поводу ИИ — будь то беспокойство по поводу неизвестного, того, что он повлияет на их собственную работу или отрасль, или того, что из-за него будет сложнее идентифицировать достоверные новости. Их также раздражает взрывной рост предложений ИИ, который они видят в средствах массовой информации, которые они потребляют.
- Желание раскрытия информации. Потребители новостей ясно понимают, что они хотят, чтобы журналисты раскрывали информацию о том, как они используют ИИ, но существует меньше консенсуса относительно того, каким должно быть это раскрытие, когда его следует использовать и не может ли оно иногда быть слишком большим.
- Растущая изоляция: они опасаются, что более широкое использование искусственного интеллекта в журналистике усугубит социальную изоляцию среди людей и нанесет вред людям, которые создают наши текущие новости.
Тревога и раздраженность
В то время как некоторые участники рассматривали ИИ как часть векового цикла, когда прорывная технология меняет отрасль или общество, у других были более серьезные опасения.
«Поскольку я занимался компьютерной безопасностью, я верю в то, что людям свойственно совершать плохие поступки, используя любые инструменты, которые могут попасть в их руки, включая искусственный интеллект», — сказал участник по имени Стюарт. «И это то, от чего, я думаю, нам нужно защититься, понимаешь?»
Другие чувствовали себя осажденными онлайн-предложениями ИИ.
«Я больше замечал это в социальных сетях, как будто оно там есть. «Хотите использовать эту функцию ИИ?» — и она тут же. И не так давно это было. … Это почти как нет, я не хочу его использовать! Так что это как бы навязано вам», — сказала участница по имени Шейла.
Большинство участников уже выразили недоверие к средствам массовой информации и почувствовали, что внедрение ИИ может усугубить ситуацию.
Все это беспокоило Алекса Махадевана, директора программы медиаграмотности MediaWise от Poynter, который помог организовать саммит и исследование.
«Собираемся ли мы совершить ошибку и начать внедрять все, что мы делаем с искусственным интеллектом, и вместо того, чтобы вызвать удивление у нашей аудитории, мы будем ее раздражать?», спросил он. Махадеван является сторонником этического использования ИИ для улучшения способов обслуживания журналистами своей аудитории, например, для поиска новых способов персонализации новостей или создания большего количества роликов в Instagram, чтобы дополнять больше историй, а не меньшего количества, которое могла бы создать человеческая команда.
Это мошенничество?
Примечательным выводом фокус-групп было то, что многие участники считали, что использование искусственного интеллекта при создании журналистики — особенно когда дело касалось использования больших языковых моделей для написания контента — выглядит мошенничеством.
«Я думаю, это интересно, если они пытаются выдать это за писателя, но это не так. Тогда я, честно говоря, чувствую себя обманутым. Потому что да, никто даже физически не докажет это», — сказала участница фокус-группы Келли.
Большинство участников заявили, что хотели бы знать, когда ИИ использовался в новостных репортажах, а раскрытие информации является частью этической политики многих новостных редакций в области ИИ.
Но некоторые сказали, что это не имеет значения для простого контента с «низкими ставками». Другие заявили, что им нужны обширные цитирования, как в «научной статье», независимо от того, участвовали они в них или нет. Третьи беспокоились по поводу «усталости от навешивания ярлыков», поскольку столь большое количество разоблачений поднимает вопросы об источниках новостей, что у них может не хватить времени все это переварить.
«Люди действительно твердо чувствовали необходимость в этом и хотели избежать обмана», — сказал Тофф, бывший журналист, чьи академические исследования часто фокусируются на новостной аудитории и отношении общественности к новостям. «Но в то же время не было единого мнения относительно того, в какой степени и как именно должно выглядеть раскрытие информации».
Предыдущее исследование, проведенное Тоффом вместе с Феликсом Саймоном из Института Рейтер, на самом деле показало парадокс: аудитория хотела, чтобы новостные организации раскрыли информацию об использовании ИИ, но затем относилась к ним более негативно, зная, что они его использовали.
По словам Тоффа, некоторые участники фокус-группы высказали то же мнение. «Они на самом деле не верили, что (редакторы новостей) будут раскрывать информацию, хотя редакционные правила настаивали на этом. Они не верили, что будут какие-либо внутренние процедуры для обеспечения этого».
Будет жизненно важно, как журналисты расскажут своей аудитории, что они делают с ИИ, сказала Келли Макбрайд, старший вице-президент Poynter и председатель Центра этики и лидерства Крейга Ньюмарка. И им, вероятно, даже не следует использовать термин ИИ, сказала она, а вместо этого следует более точно описать программу или технологию, которую они использовали и для чего.
Например, по ее словам, объясните, что вы использовали инструмент искусственного интеллекта для изучения тысяч спутниковых изображений города или региона и расскажите журналистам, что изменилось с течением времени, чтобы они могли делать дальнейшие репортажи.
«Я не сомневаюсь, что в течение следующих пяти-десяти лет ИИ кардинально изменит то, как мы ведем журналистику и как мы доносим ее до аудитории», — сказал Макбрайд. «И если мы не… просветим аудиторию, то они наверняка будут очень подозрительны и не будут доверять тому, чему должны доверять. И, возможно, доверять вещам, которым им не следует доверять».
Человеческий фактор
Ряд участников выразили обеспокоенность тем, что растущее использование ИИ приведет к потере рабочих мест для журналистов. И многие были встревожены примером, который команда Тоффа показала им, где ведущий, созданный искусственным интеллектом, читает новости.
«Я бы посоветовал (новостным организациям) подумать о том, как они могут использовать это как инструмент, чтобы лучше заботиться о своих сотрудниках. Итак, вы знаете, использовать ли это как инструмент, чтобы на самом деле дать своим сотрудникам… шанс сделать что-то, на что у них нет достаточно времени… или расти новыми и разными способами», — сказал участник Лайл, Он добавил, что, по его мнению, руководство «использует этот инструмент, чтобы найти способы заменить или избавиться от имеющихся у них сотрудников».
«Если все используют ИИ, то все новости звучат одинаково», — сказала участница Дебра.
Макбрайд согласился.
«Интернет, социальные сети и искусственный интеллект — все это приближает ситуацию к среднему, и она может стать действительно посредственным местом», — сказала она. «Я много думаю об этом, когда пишу. В Интернете можно найти много заурядной и скучной литературы, и я не видел ничего, созданного искусственным интеллектом, что я бы счел читать с удовольствием или абсолютно быть убедительным».
Махадеван также сказал, что многим людям трудно преодолеть эффект «зловещей долины» аватаров и голосов ИИ; они кажутся людьми, но потребители знают, что что-то не так.
«Мне до сих пор очень странно слышать, как женщина-ИИ читает статью в New York Times. Она допускает ошибки в интонации голоса и манере речи», — сказал он. «Я могу понять колебания людей, потому что мне очень неприятно, когда с тобой разговаривает робот».
Член фокус-группы Тони сказал: «Это меня больше всего беспокоит в глобальном масштабе по поводу того, о чем мы говорим. Человеческий элемент. Будем надеяться, что искусственный интеллект не возьмет на себя эту задачу или он станет настолько мощным, что не сможет выполнять многие из этих задач, человеческих задач, понимаете? Я думаю, что многое должно оставаться человеческим, будь то ошибка или совершенство. Человеческий элемент должен остаться».
Помогаем новостным отделам двигаться вперед
Poynter уделяет особое внимание этическим проблемам журналистов, использующих ИИ в своей работе. В марте Poynter опубликовал «стартовый пакет» для новостных отделов, которым необходимо было разработать этическую политику использования ИИ. Его написали Макбрайд, Махадеван и преподаватель Тони Элкинс. После недавнего саммита по искусственному интеллекту эксперты Poynter будут обновлять и дополнять эту структуру.
Эти изменения, вероятно, будут включать в себя решение проблемы конфиденциальности данных, что было темой саммита, хотя и не так распространено в фокус-группах.
«ИИ, вероятно, создаст обмен информацией между поставщиком новостей и потребителем новостей таким образом, чтобы новости можно было персонализировать», — сказал Макбрайд. «Но нам нужно очень четко объяснить, как мы собираемся защищать конфиденциальность людей и не злоупотреблять этими данными».
Махадеван сказал, что хотел бы уделять больше времени помощи редакциям в вопросах раскрытия информации.
«Я думаю, что мне бы хотелось поработать над более универсальным раскрытием информации, основанным на некоторых отзывах, которые мы получили от аудитории, — над некоторыми дополнительными рекомендациями о том, как подготовить раскрытие информации, не вызывающее утомления».
Тоффу еще есть что почерпнуть из результатов фокус-группы. Но отношение потребителей может дать некоторые важные сведения о будущем новостных организаций, испытывающих финансовые трудности.
По мере развития ИИ, скорее всего, он будет доставлять новости и информацию непосредственно потребителям, сокращая при этом их связь с новостными организациями, которые изначально производили информацию.
«Люди говорили о том, что эти инструменты облегчают отслеживание новостей, но это означало, что нужно быть в курсе новостей способами, которые, как они уже знали, не обращают внимания на то, кто что сообщает», — Тофф сказал.
Тем не менее, к некоторой надежде на журналистов, несколько членов фокус-группы выразили большую озабоченность важной ролью человека в создании хорошей журналистики.
«Ряд людей задавали вопросы об ограничениях этих технологий и о том, есть ли аспекты журналистики, которые действительно не следует заменять машиной», — сказал Тофф. «Соединение точек и раскрытие информации — есть признание того, что существует реальная потребность в репортерах на местах, и существует большой скептицизм, который эти инструменты могут когда-либо вызвать».