Найти тему
4pda.to

ChatGPT поймали на предложении опасных методов лечения

   ChatGPT поймали на предложении опасных методов лечения
ChatGPT поймали на предложении опасных методов лечения

Исследователи из Brigham and Women’s Hospital выяснили, что популярный чат-бот ChatGPT предоставлял ложную информацию во время составления терапевтических мер при раке, беспорядочно смешивая достоверные и ложные данные. Наличие правдивых сведений в этом миксе делало проблему серьёзнее, так как затрудняло поиск неправильного звена.

-2

В ходе исследования ChatGPT просили сгенерировать планы лечения для разных случаев рака, и 30% ответов содержали ложную информацию. Более того, чат-бот имел тенденцию смешивать правильную и неправильную информацию вместе таким образом, что было трудно определить, какая из них является точной. Из 104 запросов около 98% ответов ChatGPT содержали по крайней мере одну рекомендацию по лечению, которая отвечала стандартам Национальной всеобъемлющей онкологической сети. Таким образом, поиск ошибок был затруднительным даже для экспертов, а перепроверка подлинности рекомендации занимала больше времени, чем могло было быть потрачено на написание плана лечения доктором.

Тем не менее интеграция ИИ в здравоохранение может быть полезна для упрощения административных задач. Кроме того, использование ИИ для скрининга рака молочной железы, как выяснилось, безопасно и редко даёт сбои. Вдобавок, как писалось ранее, ChatGPT оказался эмпатичнее и терпеливее людей.