Найти тему
Веб-интегратор КРИТ

Что ни в коем случае нельзя говорить и рассказывать нейросетям

Оглавление

Спойлер: ОЧЕНЬ МНОГО ЧЕГО

Вопрос больше не в том, "Что может сделать ChatGPT?" Это вопрос "Чем я должен с ним поделиться?"

Пользователи Интернета, как правило, осведомлены о рисках возможной утечки данных и о способах использования нашей личной информации в режиме онлайн. Но соблазнительные возможности ChatGPT, похоже, создали слепую зону вокруг опасностей, которых мы обычно принимаем меры предосторожности, чтобы избежать. OpenAI только недавно анонсировала новую функцию конфиденциальности, которая позволяет пользователям ChatGPT отключать историю чатов, предотвращая использование разговоров для улучшения модели.

"Это шаг в правильном направлении", - сказал Надер Хенейн, вице-президент по исследованиям конфиденциальности в Gartner, имеющий двадцатилетний опыт работы в области корпоративной кибербезопасности и защиты данных. "Но фундаментальная проблема конфиденциальности и искусственного интеллекта заключается в том, что вы мало что можете сделать с точки зрения ретроактивного управления после того, как модель построена".

Хенейн советует думать о ChatGPT как о приветливом незнакомце, сидящем позади вас в автобусе и снимающем вас на камеру телефона.
"У них очень добрый голос, они кажутся милыми людьми. Но могли бы вы тогда пойти и провести тот же разговор в реальной жизни? Потому что так оно и есть."

Даже генеральный директор OpenAI Сэм Альтман признал риски, связанные с использованием ChatGPT. "
Было бы ошибкой полагаться на это в чем-то важном прямо сейчас. Нам предстоит проделать большую работу над надежностью и правдивостью", - написал он в Твиттере в декабре 2022 года.

По сути, относитесь к ChatGPT так же, как и ко всему остальному, что вы публикуете в Интернете. "Наилучшее предположение заключается в том, что любой человек в мире может прочитать все, что вы размещаете в Интернете — электронные письма, социальные сети, блоги, дипломы — никогда не публикуйте ничего, что вы не хотите, чтобы прочитал кто-то другой", - сказал Гэри Смит, профессор экономики Флетчера Джонса в колледже Помона и автор книги "Недоверие".: Большие данные, манипулирование данными и нападение на науку. По его словам, ChatGPT можно использовать в качестве альтернативы поиску Google или Википедии, при условии, что он проверен фактами. Но на это не следует полагаться ни в чем другом.

Суть в том, что риски все еще существуют, и они становятся еще более опасными из-за привлекательности ChatGPT. Независимо от того, используете ли вы ChatGPT в личной жизни или для повышения производительности на работе, считайте это дружеским напоминанием дважды подумать о том, чем вы делитесь с ChatGPT.

Осознайте риски, связанные с использованием ChatGPT

Сначала давайте посмотрим, что OpenAI сообщает пользователям о том, как они используют свои данные. Приоритеты конфиденциальности не у всех одинаковы, но важно знать, что написано мелким шрифтом, когда вы в следующий раз откроете ChatGPT.

1. Хакеры могут проникнуть в суперпопулярное приложение
Прежде всего, существует вероятность того, что кто-то за пределами OpenAI взломает и украдет ваши данные. При использовании стороннего сервиса всегда существует неотъемлемый риск утечки данных из-за ошибок и хакерских атак, и ChatGPT не является исключением. В марте 2023 года была обнаружена ошибка в ChatGPT, из-за которой были раскрыты заголовки, первое сообщение о новых беседах и платежная информация от пользователей ChatGPT Plus.

"Вся эта информация, которую вы вводите в него, весьма проблематична, потому что есть большая вероятность, что она может быть подвержена атакам машинного обучения. Это номер один", - сказал Хенейн. - Во-вторых, это, вероятно, записано открытым текстом где-нибудь в журнале. Будет ли кто-нибудь смотреть на это или нет, я не знаю, как и вы. В этом-то и проблема."

2. Ваши разговоры хранятся где-то на сервере
Хотя это маловероятно, некоторые сотрудники OpenAI имеют доступ к пользовательскому контенту. На странице часто задаваемых вопросов ChatGPT OpenAI сообщает, что пользовательский контент хранится в ее системах и других "
системах надежных поставщиков услуг в США". Таким образом, хотя OpenAI удаляет идентифицируемую личную информацию, до ее "деидентификации" она существует в необработанном виде на ее серверах. Некоторые авторизованные сотрудники OpenAI имеют доступ к пользовательскому контенту по четырем явным причинам: одна из них заключается в "точной настройке" своих моделей, если только пользователи не откажутся.
3. Ваши разговоры используются для обучения модели (если вы не откажетесь).
Мы поговорим об отказе позже, но если вы этого не сделаете, ваши разговоры будут использоваться для обучения ChatGPT. В соответствии со своей политикой использования данных, которая представлена в нескольких различных статьях на сайте OpenAI, говорится (открывается в новой вкладке): "
Мы можем использовать данные, которые вы нам предоставляете, для улучшения наших моделей". На другой странице OpenAI сообщает, что может "агрегировать или деидентифицировать личную информацию и использовать агрегированную информацию для анализа эффективности наших услуг". Это означает, что теоретически общественность может узнать о чем-то вроде коммерческой тайны с помощью всего, что "узнает" модель.

Ранее пользователи могли отказаться от обмена своими данными с моделью только через форму Google, ссылку на которую можно найти на странице часто задаваемых вопросов. Теперь OpenAI внедрил более явный способ отключения обмена данными в виде настройки переключения в вашей учетной записи ChatGPT. Но даже с этим новым "режимом инкогнито" разговоры хранятся на сервере OpenAI в течение 30 дней. Однако компания относительно мало что может сказать о том, как они обеспечивают безопасность ваших данных.

4. Компания заявляет, что ваши данные не будут проданы третьим лицам
OpenAI заявляет, что не передает пользовательские данные третьим лицам в маркетинговых или рекламных целях, так что вам не о чем беспокоиться. Но он действительно обменивается пользовательскими данными с поставщиками и сервис-провайдерами для обслуживания и эксплуатации сайта.

Что может произойти, если вы используете ChatGPT на работе?

Инструменты ChatGPT и generative AI рекламировались как средство повышения производительности. ChatGPT может создавать черновики статей, электронных писем, сообщений в социальных сетях и резюме длинных фрагментов текста. "Нет ни одного примера, который вы могли бы привести, который не был бы реализован", - сказал Хенейн.

Но когда сотрудники Samsung использовали ChatGPT для проверки своего кода, они непреднамеренно раскрыли коммерческую тайну. С тех пор электронная компания запретила использование ChatGPT и пригрозила сотрудникам дисциплинарными взысканиями, если они не будут соблюдать новые ограничения. Финансовые учреждения, такие как JPMorgan, Bank of America и Citigroup, также запретили или ограничили использование ChatGPT из-за строгих финансовых правил, касающихся обмена сообщениями между третьими лицами. Apple также запретила сотрудникам использовать чат-бота.

Соблазн сократить рутинную работу до нескольких секунд, похоже, затмевает тот факт, что пользователи, по сути, публикуют эту информацию в Интернете. "
Вы думаете об этом так же, как вы думаете о калькуляторе, вы думаете об этом как о Excel", - сказал он. "Вы же не думаете, что эта информация попадает в облако и что она будет храниться там вечно либо где-то в журнале, либо в самой модели".

Поэтому, если вы хотите использовать ChatGPT на работе для разбора концепций, которые вам непонятны, написания копий или анализа общедоступных данных, и нет никаких правил, запрещающих это, действуйте осторожно. Но будьте очень осторожны, прежде чем, например, попросить его оценить код сверхсекретной системы наведения ракет, над которой вы работаете, или попросить его написать краткое изложение встречи вашего босса с корпоративным шпионом, внедренным в конкурирующую компанию. Это может стоить вам работы или чего похуже.

Что может произойти, если вы будете использовать ChatGPT в качестве психотерапевта?

Опрос, проведенный медицинской технологической компанией Tebra, показал, что каждый четвертый американец чаще общается с чат-ботом с искусственным интеллектом, чем посещает терапию. Уже появлялись случаи, когда люди использовали ChatGPT в качестве формы терапии или обращались за помощью в связи со злоупотреблением психоактивными веществами. Этими примерами мы поделились как захватывающими примерами использования того, как ChatGPT может быть полезным, непредвзятым и анонимным собеседником. Но ваши самые глубокие, мрачные признания хранятся где-то на сервере.

Люди склонны думать, что их сеансы общения в чате похожи на "
огороженный сад", - сказал Хенейн. "В конце, когда я выхожу из системы, все, что было внутри этого [сеанса], смывается в унитаз, и на этом разговор заканчивается. Но это не тот случай."

Если вы пользуетесь Интернетом, ваши личные данные уже есть повсюду. Но не в чате, где вы можете почувствовать себя вынужденным делиться сокровенными и личными мыслями. "
LLM — это иллюзия - мощная иллюзия, но все же иллюзия, напоминающая компьютерную программу Eliza, созданную Джозефом Вейценбаумом в 1960-х годах", - сказал Смит.

Смит имеет в виду "
эффект Элизы", или человеческую склонность очеловечивать неодушевленные предметы. "Несмотря на то, что пользователи знали, что взаимодействуют с компьютерной программой, многие были убеждены, что программа обладает человеческим интеллектом и эмоциями, и были рады поделиться своими самыми глубокими чувствами и наиболее тщательно хранимыми секретами".

Поэтому, учитывая, как OpenAI хранит ваши разговоры, старайтесь не поддаваться иллюзии, что это волшебник в области психического здоровья, и не выбалтывать свои сокровенные мысли, если только вы не готовы поделиться ими с миром.