92 подписчика
Треть британских врачей использует ChatGPT для консультаций: проблема безопасности данных
Исследование Nuffield Trust, охватившее более 2,1 тыс. семейных врачей в Великобритании, показало: каждый третий специалист применяет ChatGPT и другие ИИ-инструменты прямо во время приёма пациентов. За год эта цифра выросла с 20% до 25%.
Врачи обращаются к искусственному интеллекту для составления сводок по приемам, упрощения диагностики и рутинных задач. Но есть проблема: подавляющее большинство не знают, какие ИИ-инструменты безопасны для работы с медицинскими данными. Они опасаются клинических ошибок и - самое важное - утечек конфиденциальной информации пациентов.
Подавляющее большинство врачей признаются, что не знают, какие ИИ-инструменты безопасны для работы с медицинскими данными. Они опасаются профессиональных и медико-правовых проблем, рисков клинических ошибок и- самое важное - утечек конфиденциальной информации пациентов.
Собственная инфраструктура как решение
Ситуация в британской медицине - пример более широкой проблемы. Любая организация, работающая с конфиденциальными данными, сталкивается с рисками при использовании публичных ИИ-сервисов.
Решение - развертывание LLM-моделей на собственной инфраструктуре. Это даёт полный контроль над данными и исключает риски утечки информации.
Преимущества собственной инфраструктуры:
- Полный контроль над данными;
- Соответствие требованиям регуляторов по защите персональных данных;
- Отсутствие рисков утечки конфиденциальной информации в публичные сервисы;
- Возможность кастомизации моделей под специфику медицинских задач;
- Размещение в дата-центрах TIER III с гарантией доступности 99,982%.
HOSTKEY предоставляет предустановленные LLM-модели с открытым исходным кодом на выделенных GPU-серверах: DeepSeek-r1, Llama-3.3-70B, Qwen3, Phi-4. Модели можно кастомизировать под ваши задачи. Готовые решения развертываются за несколько минут.
Узнать больше: hhostkey.ru/...lms
1 минута
15 декабря 2025