Найти в Дзене
avencores.

OpenAI отслеживает беседы в ChatGPT и сообщает властям в случае угрозы

OpenAI официально признало, что теперь анализирует переписки пользователей ChatGPT, выявляя потенциально опасный контент. При обнаружении угрозы другим людям система автоматически эскалирует диалог к модераторам, которые могут принять меры вплоть до обращения в полицию. * Автоматическое сканирование сообщений: ChatGPT отслеживает ключевые сигналы опасности в диалогах. Такие разговоры автоматически передаются в «специализированные каналы». * Проверка людьми: Модераторы, обученные правилам использования, оценивают ситуацию. Они могут ограничить доступ к аккаунту или — в случае подтверждения угрозы — передать дело в правоохранительные органы. * Разграничение случаев: OpenAI подчеркнуло, что самоубийственные намерения не направляются в полицию, чтобы сохранить приватность пользователей. Несмотря на заявления о защите личных данных, компания допускает передачу информации властям. Это вызывает критику по нескольким причинам: * Двойные стандарты: В судебных процессах против издательств (напр
Оглавление

Введение

OpenAI официально признало, что теперь анализирует переписки пользователей ChatGPT, выявляя потенциально опасный контент. При обнаружении угрозы другим людям система автоматически эскалирует диалог к модераторам, которые могут принять меры вплоть до обращения в полицию.

Как это работает

* Автоматическое сканирование сообщений: ChatGPT отслеживает ключевые сигналы опасности в диалогах. Такие разговоры автоматически передаются в «специализированные каналы».

* Проверка людьми: Модераторы, обученные правилам использования, оценивают ситуацию. Они могут ограничить доступ к аккаунту или — в случае подтверждения угрозы — передать дело в правоохранительные органы.

* Разграничение случаев: OpenAI подчеркнуло, что самоубийственные намерения не направляются в полицию, чтобы сохранить приватность пользователей.

Конфликт с политикой конфиденциальности

Несмотря на заявления о защите личных данных, компания допускает передачу информации властям. Это вызывает критику по нескольким причинам:

* Двойные стандарты: В судебных процессах против издательств (например, с The New York Times) OpenAI отказывается раскрывать чаты пользователей, ссылаясь на защиту приватности. Однако для полиции допускаются исключения.

* Отсутствие ясных критериев: В политике компании нет чётких правил, какие именно сообщения считаются достаточными для передачи правоохранителям.

* Подрыв доверия: Пользователи, которые воспринимали ChatGPT как «личного собеседника» или даже терапевта, теперь осознают, что переписка может быть использована против них.

Риски и последствия

* Ложные срабатывания: Существует риск «своттинга» — ситуации, когда безобидная фраза или манипуляции злоумышленников приведут к вызову полиции.

* Неравномерное применение: Поскольку система ещё новая, остаётся вопрос: одинаково ли она будет работать в разных странах и юрисдикциях.

* Непрозрачность: Пока нет ясных механизмов обжалования или уведомления пользователей о том, что их беседа была передана на проверку.

Почему это важно

OpenAI оказалась в сложной ситуации:

* C одной стороны, компания несёт репутационные риски из-за случаев, когда пользователи впадали в кризис и причиняли вред себе или другим;

* C другой — стремление к жёсткой модерации противоречит обещаниям приватности и открывает поле для злоупотреблений.

⬇️Поддержать автора⬇️

✅SBER: 2202 2050 7215 4401