Найти в Дзене
Герман Геншин

4 потенциальных негативных последствия генеративных технологий ИИ для здоровья

Оглавление

ИИ-чатботы и связанные с ними технологии обещают широкий спектр потенциальных преимуществ, но есть и отрицательные стороны, которые следует учитывать, особенно в сфере здравоохранения.

ChatGPT и другие технологии изучения языков стали мощными инструментами, и они только начинают оказывать влияние на такие сферы, как здравоохранение. Однако очень важно проявлять осторожность, когда речь идет об использовании этих инструментов в отношении собственного здоровья. Хотя их потенциал многообещающ, важно понимать ограничения и риски, связанные с этими технологиями. Вот как ChatGPT и подобные системы генеративного ИИ могут повлиять на ваше самочувствие.

1. Проблемы тревожности ИИ

Хотя термин "тревожность ИИ" появился уже несколько лет назад, согласно журналу Ассоциации информационных наук и технологий, быстрый рост ИИ продолжает беспокоить многих людей. Беспокойство по поводу всего, начиная от автоматизации рабочих мест и заканчивая вымиранием человечества, можно отнести к тревоге, связанной с ИИ, или беспокойству, возникающему из-за этой технологии и ее далеко идущих последствий.

К счастью, есть способы противостоять тревоге, вызванной ИИ, и при этом не отставать от стремительного развития этой технологии. Например, обучение чат-ботам и внедрение ИИ в свою жизнь может помочь избавиться от некоторой мистики, сообщает Everyday Health.

Для многих людей фактор неизвестности - это часть того, что делает стремительное развитие ИИ таким опасным, поэтому ознакомление с основами - это разумная отправная точка. Хотя это может показаться немного нелогичным, игра с Bard или ChatGPT может помочь сделать эти приложения более доступными.

2. Неточная информация о здоровье

-2

Авторитетная манера генеративных моделей, таких как ChatGPT, отвечать на подсказки может создать впечатление, что они знают все. Однако важно воспринимать их ответы с долей соли, особенно когда речь идет о вопросах здоровья.

Хотя в некоторых случаях ChatGPT может предоставить достоверную информацию о здоровье, все же возможно, что приложение может галлюцинировать и давать неточные советы по здоровью. Скорее всего, вы не доверяете результатам поиска Google в предоставлении персонализированных и точных данных о здоровье, поэтому к технологии искусственного интеллекта стоит подходить с такой же осторожностью.

Если у вас есть серьезные вопросы о вашем здоровье, все равно лучше всего задать их своему медицинскому работнику. Кроме того, медицинские работники имеют возможность учитывать широкий спектр факторов, включая историю болезни, симптомы и общее самочувствие. Модели ИИ могут не учитывать все эти факторы с одинаковой степенью понимания (по крайней мере, пока).

На самом деле, такие приложения, как ChatGPT, будут повторять эту информацию при запросе, поэтому воспользуйтесь его подсказкой и свяжитесь со своим врачом по поводу проблем со здоровьем. Даже самая лучшая языковая модель не способна поставить индивидуальный диагноз.

3. Усиление поведения, связанного с технологической зависимостью

-3

Технологическая зависимость уже является проблемой. В частности, в последние годы на передний план вышли зависимость от социальных сетей, а также зависимость от смартфонов. Для многих людей эти технологии, формирующие привычку, трудно отбросить, и люди в Интернете неофициально сообщают о чувстве зависимости в отношении ChatGPT и подобных приложений ИИ.

По данным Pew Research Center, эксперты полагают, что в ближайшие годы технология искусственного интеллекта сделает проблемы цифровой зависимости более выраженными. "Цифровая зависимость, которая уже является проблемой для многих, кто играет в видеоигры, смотрит видео на TikTok или YouTube или следит за каждым твитом, может стать еще более серьезной проблемой, поскольку эти и другие цифровые каналы становятся еще более персонализированными и апеллируют к базовым инстинктам для глазных яблок", - сказал в докладе Гэри Гроссман, старший вице-президент и глобальный руководитель Центра передового опыта по ИИ в Edelman.

Несмотря на то, что это может показаться ужасным, есть определенные шаги, которые вы можете предпринять, чтобы уменьшить зависимость от использования Интернета, ИИ и технологий в целом. По данным Университета Дьюка, частые перерывы, проведение свободного времени вдали от экранов и просто отслеживание причин, по которым вы склонны тратить время на ИИ, могут помочь обуздать эти импульсы. Отключение на некоторое время от сети часто является здоровым вариантом.

4. Опасения по поводу конфиденциальности данных о здоровье

Для многих людей не составляет труда использовать такие ресурсы, как ChatGPT, для решения повседневных вопросов. Например, в следующий раз, когда вы захотите узнать больше об определенном состоянии здоровья, вы можете обратиться к этим чат-ботам за быстрыми ответами.

Хотя они быстры и просты в использовании, языковые средства искусственного интеллекта могут не защитить вводимые вами частные медицинские данные, о чем предупреждает Всемирная организация здравоохранения. Будьте осторожны, если вы хотите написать подсказки о деликатных или иных частных состояниях здоровья.

Обращение к своему лечащему врачу по-прежнему является более надежным и безопасным способом решения любых проблем со здоровьем. Если речь идет о какой-либо информации, которую вы предпочитаете держать при себе, не вводите ее в подсказки ИИ.

По новым правилам Дзена свежие материалы показываются в первую очередь подписчикам, которые реагируют на публикации. Поэтому не забывайте подписаться, поставить лайк и оставить комментарий, так вы будете первым узнавать о всех новых статьях на нашем канале!