Добавить в корзинуПозвонить
Найти в Дзене
Екатерина Земских

ChatGPT официально «снял белый халат

🔠🔠🔠🔠🔠🔠🔠 ChatGPT официально «снял белый халат». И это хорошо. OpenAI выпустила официальное заявление, и теперь медицинские ограничения для их моделей — это не просто рекомендация, а жёсткая политика. Что именно под запретом? ❌Постановка диагноза. ❌Назначение лекарств и подбор дозировок. ❌Интерпретация медицинских изображений (рентген, МРТ, КТ, фото кожных поражений). Теперь на любой такой запрос ChatGPT будет давать лишь общие справки и один неизменный совет: «Обратитесь к специалисту». И это касается всех продуктов компании — от чата до API. Почему я считаю это не ограничением, а прогрессом? Потому что это — честный ответ технологии о своих пределах. ⏺️ Иллюзия компетенции: Нейросеть говорит уверенно, но не понимает смысла. Это математика, а не клиническое мышление. ⏺️Генерация путаницы: Чем точнее и детальнее запрос (например, с анализами), тем выше риск получить красивый, но опасный бред, который лишь усилит тревожность клиента (пациента). Компания наконец-то признала

🔠🔠🔠🔠🔠🔠🔠

ChatGPT официально «снял белый халат». И это хорошо.

OpenAI выпустила официальное заявление, и теперь медицинские ограничения для их моделей — это не просто рекомендация, а жёсткая политика.

Что именно под запретом?

❌Постановка диагноза.

❌Назначение лекарств и подбор дозировок.

❌Интерпретация медицинских изображений (рентген, МРТ, КТ, фото кожных поражений).

Теперь на любой такой запрос ChatGPT будет давать лишь общие справки и один неизменный совет: «Обратитесь к специалисту». И это касается всех продуктов компании — от чата до API.

Почему я считаю это не ограничением, а прогрессом?

Потому что это — честный ответ технологии о своих пределах.

⏺️ Иллюзия компетенции: Нейросеть говорит уверенно, но не понимает смысла. Это математика, а не клиническое мышление.

⏺️Генерация путаницы: Чем точнее и детальнее запрос (например, с анализами), тем выше риск получить красивый, но опасный бред, который лишь усилит тревожность клиента (пациента).

Компания наконец-то признала: между «общей информацией» и «персональной рекомендацией» — пропасть, через которую нельзя перепрыгнуть с помощью статистики.

Вывод для нутрициологов и врачей: ИИ становится ассистентом, а не конкурентом. Он может структурировать данные, искать литературу, но последнее слово, диагноз и план лечения — всегда за живым специалистом.

Теперь у нас есть мощный аргумент для пациентов, которые привыкли к самодиагностике через нейросеть: «Даже её создатели признали, что это небезопасно».

И это относится не только к медицинским советам, почитать можно тут ⤵️

http://expert.ru/news/openai-zapretila-chatgpt-davat-meditsinskie-i-yuridicheskie-sovety/

А как вы относитесь к этому запрету? Считаете ли его адекватным шагом?