Инженеры и исследователи, использующие инструмент для транскрипции аудио Whisper от компании OpenAI, сообщают, что он часто создаёт так называемые «галлюцинации» — фрагменты текста, которые не соответствуют исходной аудиозаписи. По данным Associated Press, исследователь из Мичиганского университета обнаружил вымышленные тексты в 80% проверенных транскрипций этого ИИ-инструмента. Галлюцинации искусственного интеллекта — явление не новое. Исследователи пытаются решить эту проблему с помощью различных методов, включая семантическую энтропию. Однако особенно тревожит то, что инструмент транскрипции Whisper широко используется в медицинских учреждениях, где ошибки могут иметь серьёзные, а иногда и смертельные последствия. Например, в одном случае спикер на записи сказал: «Две другие девушки и одна леди», а ИИ-инструмент расшифровывает это как «Две другие девушки и одна леди, которые были чёрными». И наконец, в одном из примеров, связанных с медициной, Whisper расшифровал «гиперактивированны
Whisper от OpenAI генерирует опасные ошибки в медицинских транскрипциях
27 октября 202427 окт 2024
2
2 мин