Найти в Дзене
ITtech

ChatGPT запретили давать медицинские советы: OpenAI ужесточила правила

Искусственный интеллект становится всё мощнее, но OpenAI решила установить жёсткие ограничения. Компания полностью запретила ChatGPT давать советы по здоровью и праву. Теперь, когда вы просите нейросеть помочь с медицинским вопросом, она будет предлагать только общую информацию и рекомендовать обратиться к профессионалу. Что изменилось? Раньше ChatGPT мог анализировать симптомы и давать рекомендации. Конечно, с оговорками типа «это не медицинский совет», но всё же давал информацию, которая звучала как рекомендация. Теперь это запрещено полностью. OpenAI пошла ещё дальше и запретила анализировать медицинские снимки: рентгенограммы, УЗИ, компьютерные томограммы. Даже если вы просто попросите описать, что на картинке, ChatGPT откажет. Вместо этого нейросеть будет настаивать, чтобы вы обратились к врачу. То же самое касается юридических советов. ChatGPT больше не будет давать рекомендации по поводу контрактов, судебных исков или прав граждан. Только общая информация и рекомендация найти на

Искусственный интеллект становится всё мощнее, но OpenAI решила установить жёсткие ограничения. Компания полностью запретила ChatGPT давать советы по здоровью и праву. Теперь, когда вы просите нейросеть помочь с медицинским вопросом, она будет предлагать только общую информацию и рекомендовать обратиться к профессионалу.

ChatGPT больше не может давать советы по здоровью
ChatGPT больше не может давать советы по здоровью

Что изменилось? Раньше ChatGPT мог анализировать симптомы и давать рекомендации. Конечно, с оговорками типа «это не медицинский совет», но всё же давал информацию, которая звучала как рекомендация. Теперь это запрещено полностью.

OpenAI пошла ещё дальше и запретила анализировать медицинские снимки: рентгенограммы, УЗИ, компьютерные томограммы. Даже если вы просто попросите описать, что на картинке, ChatGPT откажет. Вместо этого нейросеть будет настаивать, чтобы вы обратились к врачу.

То же самое касается юридических советов. ChatGPT больше не будет давать рекомендации по поводу контрактов, судебных исков или прав граждан. Только общая информация и рекомендация найти настоящего адвоката.

Почему OpenAI это сделала? Причин несколько. Первая: юридическая ответственность. Если пользователь получит неправильный медицинский совет от ChatGPT и это приведёт к вреду здоровью, OpenAI может быть привлечена к суду. Компания предпочла подстраховаться.

Вторая причина: репутация. Если широко известно, что ChatGPT дал неправильный диагноз и пациент пострадал, это нанесёт урон доверию к технологии и компании.
Лучше проконсультироваться с настоящим врачем
Лучше проконсультироваться с настоящим врачем

Третья причина: давление регуляторов. Правительства разных стран всё чаще требуют от компаний ограничивать использование ИИ в критичных сферах. Здравоохранение и право это именно такие области, где ошибка может стоить жизни или свободы человека.

Чем это грозит пользователям? С одной стороны, это хорошо. ChatGPT был непредсказуем: иногда давал толковую информацию, иногда нёс полный бред. И если бы люди следовали его советам в серьёзных ситуациях, это кончилось бы плохо. Ограничения защищают от такого сценария.

С другой стороны, это ограничивает полезность ИИ. Много людей хотели бы получить первичную оценку симптомов или разобраться в простой юридической ситуации. Теперь приходится искать информацию другими способами.

Что дальше? Ограничения будут только расширяться. OpenAI это первая компания, которая пошла на такой шаг, но вслед пойдут и другие разработчики ИИ. Для критичных сфер будут созданы специализированные модели с дополнительными проверками и ответственностью.

ИИ должен быть помощником, а не врачом или адвокатом. OpenAI это поняла и сделала правильный выбор. Нейросеть может предоставить информацию, но ответственность за решение остаётся за человеком и профессионалом.

Вывод. Это означает, что при всех возможностях ИИ, есть области, куда он не должен входить. Здравоохранение и право требуют ответственности, опыта и способности отвечать за ошибки. ChatGPT этого не может. И это правильно.

Подписывайтесь на наш Telegram