1. Введение
В недавнем интервью для подкаста с Тео Воном генеральный директор OpenAI Сэм Альтман выразил обеспокоенность по поводу конфиденциальности искусственного интеллекта (ИИ). Он заявил, что личная информация, передаваемая чат-ботам компании ChatGPT, не защищена. Он подчеркнул существенные пробелы в конфиденциальности при взаимодействии с ИИ.
2. Альтман сравнил разговоры с помощью искусственного интеллекта с разговорами с терапевтами, юристами или врачами, которые защищены и остаются конфиденциальными по закону
Но разговоры с помощью ChatGPT не имеют таких же гарантий. Это означает, что личные или конфиденциальные данные пользователей, предоставленные ChatGPT, OpenAI, могут быть раскрыты в случае подачи судебного иска.
Поскольку инструменты искусственного интеллекта широко используются для выполнения различных функций, отсутствие законов о конфиденциальности является проблемой. Альтман назвал это “большой проблемой” и сказал, что “неправильно”, когда пользователи не имеют защиты при использовании инструментов искусственного интеллекта. Поскольку все больше людей используют искусственный интеллект для решения таких задач, как поддержка психического здоровья, медицинские консультации или финансовое руководство, он считает, что должны быть законы, обеспечивающие конфиденциальность таких разговоров, как и при профессиональном взаимодействии.
3. Итог
Альтман поделился опасениями по поводу возможного доступа к персональным данным или их неправильного использования. Он поделился, что сам с осторожностью относится к использованию некоторых инструментов ИИ и что он разговаривал с законодателями, которые согласны с необходимостью принятия законов о конфиденциальности цифровых разговоров.
Кроме того, Альтман также предупредил, что по мере распространения ИИ правительства могут усилить слежку, чтобы пресечь терроризм и другие преступления. Он признал, что, хотя для обеспечения безопасности необходимы определенные уровни мониторинга, существует риск того, что правительства могут злоупотребить своими полномочиями.
В этих комментариях подчеркивалась необходимость создания всеобъемлющих систем защиты конфиденциальности ИИ. В ходе обсуждения также были выявлены более широкие проблемы, с которыми сталкивается индустрия ИИ.