Добавить в корзинуПозвонить
Найти в Дзене
Прокачай свои мозги

14 вопросов, которые никогда не стоит задавать ChatGPT

Всего за пару лет ChatGPT превратился из никому неизвестного стартапа в главный цифровой мультитул планеты. Согласно официальной статистике, миллионы пользователей используют чат-бот в интернете от банального поиска информации до планирования свадеб. И хотя я принадлежу к лагерю скептиков и сомневаюсь в реальной пользе этой технологии (и всей братии подобных нейросетей), глупо отрицать: иногда она действительно выручает. Однако существует «черный список» задач, к которым, по мнению экспертов по кибербезопасности, никого - ни ChatGPT, ни любого другого бота - подпускать нельзя. Слишком многие видят в ChatGPT оракула, забывая, что перед ними всего лишь мультимодальная языковая модель, склонная к дезинформации и цифровым галлюцинациям. Люди ошибочно полагают, что этот алгоритм знает всё и умеет всё. О пугающих рисках использования ИИ сказано уже немало: от жутковатых диалогов до откровенно вредных советов. Да, чат-боты могут быть полезны, но только если вы понимаете границы их применения
Оглавление

Всего за пару лет ChatGPT превратился из никому неизвестного стартапа в главный цифровой мультитул планеты. Согласно официальной статистике, миллионы пользователей используют чат-бот в интернете от банального поиска информации до планирования свадеб. И хотя я принадлежу к лагерю скептиков и сомневаюсь в реальной пользе этой технологии (и всей братии подобных нейросетей), глупо отрицать: иногда она действительно выручает. Однако существует «черный список» задач, к которым, по мнению экспертов по кибербезопасности, никого - ни ChatGPT, ни любого другого бота - подпускать нельзя.

Слишком многие видят в ChatGPT оракула, забывая, что перед ними всего лишь мультимодальная языковая модель, склонная к дезинформации и цифровым галлюцинациям. Люди ошибочно полагают, что этот алгоритм знает всё и умеет всё. О пугающих рисках использования ИИ сказано уже немало: от жутковатых диалогов до откровенно вредных советов. Да, чат-боты могут быть полезны, но только если вы понимаете границы их применения. Вот 14 тем, которые лучше обсудить с живым специалистом, а не с OpenAI.

1. Любая личная информация

Главное, что вам нужно запомнить в этой статье - все беседы с ChatGPT не являются приватными. Политика конфиденциальности OpenAI недвусмысленно гласит: ваши промпты и загруженные файлы собираются и хранятся. Если последние 20 лет вы не провели в глухом бункере, то знаете цену обещаниям техногигантов о приватности — они стоят не больше, чем детское «честное слово». Утечки данных случаются регулярно. Справедливости ради, ChatGPT пока не был замечен в столь же циничном использовании данных, как Meta, дейтельность которой запрещена на территории Российской Федерации, но «скармливать» боту личную информацию — неоправданный риск.

-2

Во-первых, в вашем чате всегда присутствует третий лишний. OpenAI уже сталкивалась с утечками, когда чужие переписки становились достоянием общественности. Вы никогда не знаете наверняка, не скопируется ли диалог, в котором вы опрометчиво указали имя и возраст, на жесткий диск хакера или на витрину даркнета.

Во-вторых, чат-боты иногда действуют как попугаи. Пугающее исследование Корнеллского университета показало, что некоторые модели можно спровоцировать на выдачу огромных кусков текста из их обучающей базы — вплоть до целых глав «Гарри Поттера» слово в слово. Логично предположить, что и ваши секреты, доверенные ChatGPT, могут быть «запомнены» алгоритмом и однажды всплыть в ответе другому пользователю.

2. Всё, что связано с нарушением закона

История помнит немало случаев, когда история поиска в Google становилась уликой в суде. Теоретически ChatGPT запрограммирован отказывать в помощи по нелегальным вопросам, но энтузиасты быстро нашли лазейки («джейлбрейки»). Например, если облечь криминальный запрос в форму поэмы, бот может выдать инструкции по созданию весьма опасных вещей. Но даже если отбросить этику, просить ИИ о помощи в преступлении — идея провальная.

-3

Первая причина банальна (см. пункт выше): ваши чаты не анонимны. Всё сказанное вами может быть и будет использовано против вас. Прецеденты уже есть. Даже в шутку не стоит обсуждать с нейросетью противозаконные схемы.

Вторая причина - склонность ИИ к выдумкам. Даже если вы обойдете защитные барьеры, полученная информация может быть в корне неверной. Одно дело ошибка в рецепте пирога, и совсем другое в рецепте кустарного синтеза веществ. Последствия могут быть фатальными. Если же ни мораль, ни инстинкт самосохранения вас не останавливают, подумайте хотя бы о риске получить вечный бан в сервисе.

3. Анализ конфиденциальных данных

Многие используют ChatGPT как идеального ассистента: загружают в него массивные документы, чтобы получить краткую выжимку, найти ошибки или корреляции. Признаю, для повседневных задач с гигантскими текстами он будет полезен при условии последующей проверки. Но если текст защищен авторским правом, содержит коммерческую тайну или персональные данные — умоляю, держите его подальше от окна ввода.

-4

Причина всё та же: OpenAI (а потенциально и злоумышленники) имеют доступ к вашим запросам. Представьте врача, который ради экономии времени «прогоняет» через ChatGPT историю болезни пациента. Теперь конфиденциальные медицинские данные находятся под угрозой, какими бы благими ни были намерения.

Подобное уже случалось. В 2023 году сотрудники Samsung случайно «слили» в чат-бот секретный исходный код компании. Неизвестно, насколько больно это ударило по корпорации, но механизм ясен: данные, попавшие в «мозг» нейросети, могут быть оттуда извлечены. Относитесь к ChatGPT как к главной городской сплетнице: исходите из того, что всё сказанное вами по секрету завтра будут знать все.

4. Медицинские советы

Я буду повторять это до посинения: ChatGPT нельзя доверять на 100%. Он часто ошибается, причем делает это уверенно и убедительно. А если вы укажете на ошибку, он с готовностью согласится, даже если изначально был прав. Врачи, пытавшиеся приспособить ИИ к работе, признают: он годится лишь для самых общих ответов, но бесполезен (и опасен) при диагностике конкретных симптомов. К сожалению, прямого запрета на медицинские советы у ChatGPT нет. Вы можете спросить: «Что это за резкая боль в боку?», и вместо призыва вызвать скорую бот посоветует выпить водички.

-5

Поймите главное: чат-боты не понимают разницы между истиной и вымыслом. Они просто перемалывают гигантский массив данных — достоверных и не очень — и лепят из них гладкий, приятный уху текст. ChatGPT не врач и никогда им не станет. В лучшем случае у него можно попросить ссылки на исследования (которые тоже придется перепроверять). Уже имеются случаи, когда люди буквально теряли здоровье, следуя советам алгоритмов. Не пополняйте эту статистику.

5. Отношения и психология

Пугает количество людей, бегущих к ChatGPT за любовными советами. Бот обучался на всем интернете, включая самые токсичные его закоулки. Обращаясь к нему, вы рискуете получить рекомендацию, сгенерированную на основе бреда какого-нибудь тролля с Reddit или женоненавистнического форума.

-6

Советы от ChatGPT часто бывают двух типов: либо просто ошибочные, либо опасно угодливые. Бот склонен «зеркалить» своего собеседника, поддерживая его заблуждения и токсичные установки, вместо того чтобы дать отрезвляющий взгляд со стороны. Он не владеет этикой психотерапии, не умеет считывать контекст и невербальные сигналы. Он не поймет, что вы преувеличиваете вину партнера, скрывая свои ошибки, и не заметит тонких намеков на абьюз.

Более того, ИИ наследует культурные предрассудки своих создателей. То, что алгоритм сочтет нормой, может разрушить вашу личную жизнь. Никакой код не заменит эмпатии и профессионализма живого консультанта.

6. Генерация паролей

Казалось бы, уж с такой мелочью, как пароль, ИИ справится идеально. Боты ведь мастера генерировать случайные последовательности? Технически — да. Практически — не стоит этого делать.

-7

Эксперты по кибербезопасности приводят веские аргументы. Во-первых, высока вероятность, что на похожий запрос другого пользователя бот выдаст ту же самую комбинацию. Во-вторых, без детального промпта пароли могут оказаться слишком слабыми. В-третьих, у языковых моделей на удивление плохо с арифметикой: попросите пароль из 20 символов, и он вполне может выдать 17. И последнее: ChatGPT сохраняет историю переписки. Пароль, который хранится на серверах третьей стороны в привязке к вашему аккаунту, — это уже не пароль.

Используйте специализированные генераторы паролей (например, встроенные в Bitwarden или 1Password). Они созданы именно для этого и делают свою работу безопасно.

7. Психотерапия

Качественная терапия — роскошь, доступная немногим. Когда сеанс стоит несколько тысяч рублей, а страховка не покрывает ментальное здоровье, трудно винить человека, который в отчаянии пытается излить душу чат-боту. И всё же это плохая идея.

-8

Главная проблема — «синдром лакея». ChatGPT запрограммирован быть вежливым и позитивным. В терапии же часто нужно не поглаживание по голове, а объективный взгляд и проработка болезненных точек. Бот может начать «болеть» за вас там, где ваше поведение деструктивно, случайно подпитывая ваши же неврозы и мании.

Трагический пример — недавний судебный иск, в котором утверждается, что общение с чат-ботом подтолкнуло подростка к суициду. Доказательства выглядят серьезно, хотя OpenAI отрицает вину. Представьте: состояние близкого вам человека ухудшается из-за советов бездушного алгоритма, а компания-разработчик просто разводит руками. Даже энтузиасты ИИ-терапии признают: у этой технологии слишком серьезные ограничения.

8. Помощь в ремонте

Починка автомобиля или сложной техники без инструкции — это часы, проведенные на форумах в поисках «собрата по несчастью». Поэтому многим кажется логичным спросить всезнающий ИИ. Но как бы заманчиво это ни звучало, мы настоятельно не рекомендуем использовать ChatGPT в качестве автомеханика.

-9

Доказательство тому — опыт множества автовладельцев. Результаты предсказуемы: ChatGPT может верно описать проблему в общих чертах, но как только дело доходит до конкретных деталей, гаек и последовательности действий — он «плывет» или откровенно врет.

Следует отметить, что профессиональные сантехники иногда используют его как справочник. Но если речь идет о дорогом автомобиле или устройстве, которое можно окончательно доломать одним неверным движением, лучше доверьтесь профессионалу из плоти и крови.

9. Финансовые советы

Здесь всё просто: никогда, ни при каких обстоятельствах не спрашивайте у ChatGPT, куда вложить деньги. Финансы — это минное поле из налоговых кодексов, рыночных колебаний и индивидуальных обстоятельств. Инвестиционные консультанты и бухгалтеры тратят десятилетия на обучение не просто так. Наивно полагать, что чат-бот может заменить их опыт.

-10

Бот оперирует устаревшими данными и часто галлюцинирует. Общие советы в духе «как сэкономить на кофе» спросить можно. Но никогда не просите помощи с налогами или формированием портфеля акций. Фраза «Мне так посоветовал ChatGPT» не разжалобит ни налогового инспектора, ни судью, когда вас обвинят в мошенничестве.

10. Домашние задания и учеба

Тысячелетиями суть образования сводилась к тренировке мозга: найти информацию, проанализировать, решить проблему. ChatGPT ставит под удар сам принцип формирования интеллекта.

-11

Пока рано судить о масштабах катастрофы, но первые звоночки уже есть. Исследования показывают, что студенты, регулярно использующие ИИ, начинают отставать когнитивно. Развивается зависимость: мозг разучается генерировать идеи самостоятельно. Представьте выпускника архитектурного института, который 4 года учился с ботом, а теперь должен спроектировать дом, в котором вы будете жить. Страшно? То-то же. Учитесь «по старинке» — в эпоху искусственного интеллекта человеческий естественный интеллект будет цениться на вес золота.

11. Составление юридических документов

Юристы учатся годами и сдают невероятно сложный экзамен на адвоката, прежде чем получают право практиковать. Но уже были случаи, когда юристы пытались схалтурить и переложить написание брифов на ChatGPT. Результат — грандиозный скандал. В 2023 году адвокаты представили в суде документы с выдуманными прецедентами. Бот их просто сочинил, а люди не проверили.

-12

Даже Гарвардская школа права, пытающаяся внедрять инновации, признает серьезные ограничения ИИ. Законы меняются, зависят от географии и контекста. Последнее, что вам нужно — это договор аренды, составленный нейросетью, который позволит жильцам разнести вашу квартиру просто потому, что в контракте была юридическая дыра.

12. Прогноз будущего

Никто не знает будущего — ни эксперты, ни гадалки, ни тем более языковая модель. Если ИИ с трудом справляется с фактами о настоящем, глупо ожидать от него пророчеств о завтрашнем дне.

-13

Не используйте ChatGPT, чтобы решить, на какую «лошадку» поставить, какие акции купить или какую профессию выбрать в надежде на легкие деньги. Ради развлечения можно спросить футуристический прогноз на 200 лет вперед, но принимать эти фантазии как руководство к действию — чистое безумие.

13. Действия в чрезвычайных ситуациях

В критической ситуации, когда жизнь висит на волоске, счет идет на секунды. При пожаре, аварии или сердечном приступе может возникнуть соблазн спросить у телефона: «Что делать?». Не делайте этого.

-14

Совет ChatGPT может быть ошибочным, слишком длинным или неактуальным. В экстренной ситуации ошибка стоит жизни. Готовьтесь заранее: выучите основы первой помощи, узнайте, где огнетушитель, запомните алгоритм действий. И всегда, если есть связь, звоните в службу спасения (112 или 101), а не общайтесь с чат-ботом. Это та сфера, где на ИИ полагаться нельзя категорически.

14. Политику

Чат-боты — не беспристрастные судьи. Это цифровые губки, впитавшие в себя взгляды своих создателей и хаос интернета. Политика — вещь субъективная, и ChatGPT неизбежно склонен к предвзятости.

-15

Его «политические симпатии» меняются от обновления к обновлению: то его обвиняют в левизне, то маятник качается вправо. Суть не в том, кто прав, а в том, что ChatGPT — плохой источник политической мудрости. Он либо загонит вас в «информационный пузырь», угодливо подтверждая ваши же предрассудки, либо накормит откровенной пропагандой. В конце концов, в его обучающей выборке умные дискуссии профессоров перемешаны с безумными манифестами городских сумасшедших и сетевых троллей.

Уважаемые читатели, если для вас данная статья была полезной, пожалуйста подпишитесь, это поможет начинающему автору и каналу в продвижении.