Найти тему
Герман Геншин

5 причин, по которым компании запрещают ChatGPT

Оглавление

Все больше компаний запрещают ChatGPT на рабочем месте, но что стоит за этими запретами?

Несмотря на его впечатляющие возможности, несколько крупных компаний запретили своим сотрудникам использовать ChatGPT.

В мае 2023 года компания Samsung запретила использовать ChatGPT и другие инструменты генеративного ИИ. Затем, в июне 2023 года, его примеру последовал Банк Содружества Австралии, а также такие компании, как Amazon, Apple и JPMorgan Chase & Co. Некоторые больницы, юридические фирмы и правительственные учреждения также запретили сотрудникам использовать ChatGPT.

Почему же все больше и больше компаний запрещают ChatGPT? Вот пять основных причин.

1. Утечка данных

Для обучения и эффективной работы ChatGPT требуется большое количество данных. Чатбот был обучен с использованием огромного количества данных, полученных из интернета, и продолжает обучаться.

Согласно странице помощи OpenAI, каждая часть данных, включая конфиденциальные данные о клиентах, коммерческие тайны и важную деловую информацию, которые вы передаете чат-боту, может быть просмотрена его тренерами, которые могут использовать ваши данные для улучшения своих систем.

Многие компании подчиняются строгим правилам защиты данных. В результате они с осторожностью относятся к передаче персональных данных сторонним организациям, поскольку это повышает риск утечки данных.

Кроме того, OpenAI не предлагает никаких надежных гарантий защиты данных и конфиденциальности. В марте 2023 года OpenAI подтвердила ошибку, позволяющую некоторым пользователям просматривать заголовки чатов в истории других активных пользователей. Хотя эта ошибка была исправлена, и OpenAI запустила программу вознаграждения за ошибку, компания не гарантирует безопасность и конфиденциальность пользовательских данных.

Многие организации предпочитают ограничивать использование ChatGPT сотрудниками, чтобы избежать утечки данных, которая может нанести ущерб их репутации, привести к финансовым потерям и подвергнуть риску их клиентов и сотрудников.

2. Риски кибербезопасности

-2

Хотя неизвестно, действительно ли ChatGPT подвержен рискам кибербезопасности, существует вероятность того, что его развертывание в организации может привести к потенциальным уязвимостям, которыми могут воспользоваться киберзлоумышленники.

Если компания интегрирует ChatGPT и в системе безопасности чатбота есть слабые места, злоумышленники могут воспользоваться уязвимостями и внедрить вредоносные коды. Кроме того, способность ChatGPT генерировать человекоподобные ответы является золотым яйцом для фишинговых злоумышленников, которые могут завладеть учетной записью или выдать себя за легитимную организацию, чтобы обманом заставить сотрудников компании поделиться конфиденциальной информацией.

3. Создание персонализированных чат-ботов

-3

Несмотря на свои инновационные функции, ChatGPT может выдавать ложную и вводящую в заблуждение информацию. В результате многие компании создали чат-ботов с искусственным интеллектом для рабочих целей. Например, Commonwealth Bank of Australia попросил своих сотрудников вместо него использовать Gen.ai - чат-бот с искусственным интеллектом (ИИ), который использует информацию CommBank для предоставления ответов.

Такие компании, как Samsung и Amazon, разработали усовершенствованные модели естественного языка, поэтому предприятия могут легко создавать и внедрять персонализированные чат-боты на основе существующих стенограмм. С помощью таких чат-ботов вы сможете предотвратить юридические и репутационные последствия, связанные с неправильной обработкой данных.

4. Отсутствие регулирования

В отраслях, где компании подвержены нормативным протоколам и санкциям, отсутствие нормативного руководства ChatGPT является тревожным сигналом. Без точных нормативных условий, регулирующих использование ChatGPT, компании могут столкнуться с серьезными юридическими последствиями при использовании чат-бота с искусственным интеллектом в своей деятельности.

Кроме того, отсутствие регулирования может снизить подотчетность и прозрачность компании. Большинство компаний могут запутаться в объяснении процессов принятия решений и мер безопасности языковой модели ИИ своим клиентам.

Компании ограничивают ChatGPT, опасаясь потенциальных нарушений законов о конфиденциальности и отраслевых норм.

5. Безответственное использование сотрудниками

-4

Во многих компаниях некоторые сотрудники полагаются исключительно на ответы ChatGPT для создания контента и выполнения своих обязанностей. Это порождает лень в рабочей среде и препятствует творчеству и инновациям.

Зависимость от ИИ может помешать вашей способности мыслить критически. Это также может подорвать доверие к компании, поскольку ChatGPT часто предоставляет неточные и ненадежные данные.

Хотя ChatGPT является мощным инструментом, его использование для решения сложных запросов, требующих специальных знаний в конкретной области, может нанести ущерб работе и эффективности компании. Некоторые сотрудники могут не помнить о проверке фактов и проверке ответов, предоставленных чат-ботом с искусственным интеллектом, рассматривая ответы как универсальное решение.

Чтобы смягчить подобные проблемы, компании накладывают запреты на чатботы, чтобы сотрудники могли сосредоточиться на своих задачах и предоставлять пользователям безошибочные решения.

Запреты чатботов: Лучше перестраховаться, чем потом жалеть

Компании, запрещающие ChatGPT, указывают на риски кибербезопасности, этические нормы сотрудников и проблемы с соблюдением нормативных требований. Неспособность ChatGPT облегчить эти проблемы и предложить отраслевые решения свидетельствует о его ограниченности и необходимости дальнейшего развития.

Тем временем компании переходят на альтернативные чат-боты или просто ограничивают использование ChatGPT сотрудниками, чтобы избежать потенциальных утечек данных и ненадежных протоколов безопасности и регулирования, связанных с чат-ботом.

По новым правилам Дзена свежие материалы показываются в первую очередь подписчикам, которые реагируют на публикации. Поэтому не забывайте подписаться, поставить лайк и оставить комментарий, так вы будете первым узнавать о всех новых статьях на нашем канале!