Исследования, проведенные учеными из Нью-Йоркского университета, показали, что медицинские языковые модели (LLM), которые активно применяются в здравоохранении, могут стать жертвами дезинформации даже в минимальных дозах. Оказавшись под воздействием лишь 0,001% ложных данных, такие системы способны начать выдавать ошибки, что может поставить под угрозу здоровье пациентов. Эксперименты, описанные в журнале Nature Medicine, показали, как незначительное вмешательство в данные для обучения языковой модели может повлиять на её работу. Исследователи внедрили созданную искусственным интеллектом медицинскую дезинформацию в популярный обучающий набор данных The Pile, включающий качественные материалы, в том числе из PubMed. Всего за сутки было сгенерировано 150 000 статей с ложной информацией, что позволило исследователям выявить серьёзную уязвимость. Оказалось, что достаточно внести всего один миллион фальшивых токенов (примерно 0,001% от 100 миллиардов) в обучающие данные модели, чтобы повыси
Медицинские чат-боты могут выйти из строя из-за малейшей дезинформации
22 января 202522 янв 2025
1
1 мин