В новом исследовании, опубликованное в журнале JAMA, чатботу ChatGPT задавали вопросы, связанные с насилием, самоубийством или другими кризисными ситуациями - ИИ предоставлял важные ресурсы, например сайты или телефоны доверия(чтобы получить помощь) только в 22% случаев. Исследователи предполагают, что органы здравоохранения могли бы помочь компаниям, занимающимся разработкой ИИ, обеспечить включение таких ресурсов систему искусственного интеллекта, подобную ChatGPT, чтобы тот мог отвечать на запросы о здоровье. Например, при правильном проектировании и вводе данных ChatGPT мог бы распознавать признаки и симптомы зависимости или депрессии в вопросах, которые ему задают, что смогло бы помочь предоставлять медицинские ресурсы при взаимодействии с этим человеком. А регулирующие органы могли бы контролировать, чтобы ответы ИИ предлагали точную и надежную информацию и ресурсы. "Эти ресурсы существуют. Они уже недостаточно используются", - сказал Джон Айерс, автор исследования. По его мнению
Может ли бот ChatGPT помогать людям в борьбе с зависимостью или суицидальными мыслями, выяснили ученые
8 июня 20238 июн 2023
15
2 мин