Найти тему
Цифровые мозги

Вы все еще верите ChatGPT? Тогда мы идем к вам!

В последнее время из каждого утюга так и слышно – ChatGPT сдал то один экзамен, то другой. Люди боятся, что скоро их профессии будут не востребованы. Юристы, экономисты, программисты и т.д. – всех заменит искусственный интеллект.

А так ли страшен черт, как его малюют?

Безусловно, все эти языковые модели, подобные ChatGPT, очень помогают в создании контента. Например, на нашем канале мы размещали художественные произведения целиком и полностью написанные искусственным интеллектом.

Вот:

Котенок Федя: история о любви и выживании
Цифровые мозги2 марта 2023

И вот:

Война цивилизаций или в борьбе за выживание
Цифровые мозги9 марта 2023

Но это художественные произведения. Чистый вымысел! Здесь вопрос о доверии к информации не стоит вообще!

А как быть, если речь идет о юриспруденции, например? Вы задаете вопрос и получаете ответ. Затем вы идете с этим в суд и…

От этого же зависит судьба человека!

Изображение сгенерировано нейросетью Kandinsky 2.1
Изображение сгенерировано нейросетью Kandinsky 2.1

Ну, хорошо, юриспруденция дело серьезное, и доверять в этом вопросе искусственному интеллекту сейчас будет только полный дурак. Но ведь есть и другие, пусть и не такие критичные, вопросы в которых художественный вымысел просто недопустим!

Приведем конкретный пример из реальной жизни – ситуация, о которой рассказал нам наш подписчик Антон.

Антон работает системным администратором. И перед ним поставили задачу – скрыть раздел «Атрибуты» на вкладке «Общие» окна «Свойства» для файлов и папок в операционной системе Windows 10.

Необходимо, чтобы выделенный раздел не отображался.
Необходимо, чтобы выделенный раздел не отображался.

Антон сразу же побежал гуглить! Но ничего дельного в гугле не находилось, как только Антон не пытался формулировать запрос.

Гугл выдает не то, что надо. Он упорно предлагает скрыть папку с файлами, установив соответствующую галочку. А необходимо как раз запретить пользователям устанавливать эту галочку!
Гугл выдает не то, что надо. Он упорно предлагает скрыть папку с файлами, установив соответствующую галочку. А необходимо как раз запретить пользователям устанавливать эту галочку!

Антон уже был готов смириться и принять тот факт, что, видимо, сделать это никак не возможно! Но тут он вспомнил про ChatGPT. Вопрос был сформулирован максимально подробно:

Если мы щелкнем правой кнопкой мыши по любой папке в Windows 10, а затем выберем пункт контекстного меню "Свойства", то мы увидим окно с несколькими вкладками. На вкладке "Общие" будет несколько разделов, в том числе раздел "Атрибуты". Возможно ли при помощи групповых политик или редактора реестра скрыть раздел "Атрибуты" со вкладки "Общие" окна "Свойства" для всех папок в системе?

Антон сделал несколько генераций для данного запроса. Мы не будем перепечатывать здесь весь текст, а просто приложим скриншоты.

Первая генерация ChatGPT
Первая генерация ChatGPT

Вторая генерация ChatGPT
Вторая генерация ChatGPT

Третья генерация ChatGPT
Третья генерация ChatGPT

Если в двух словах - то ни один из предложенных вариантов не работает.

В случае с групповыми политиками, указанные ChatGPT в первой и третьей генерации параметры, попросту не существуют! Хотя сам раздел "Конфигурация компьютера" -> "Административные шаблоны" -> "Проводник Windows" он указывает верно. Т.е. если бы необходимые параметры и существовали бы, то они, скорее всего, находились бы действительно именно в этом разделе. Но почему-то название параметров ChatGPT выдумывает. Да-да, в буквальном смысле выдумывает! И каждый раз разные!

В случае с реестром та же самая песня. ChatGPT подбирает вполне логичный раздел реестра, где могли бы находится требуемые параметры. Вот только названия самих параметров он придумывает! Естественно, что в итоге мы получаем нерабочие инструкции.

На самом же деле все логично. ChatGPT - это обученная языковая модель. Если какие-то данные ей показывали при обучении, то, скорее всего, она выдаст правильный ответ. Однако, если данные новые, еще ей не известные, то она попытается их "додумать", выдав ответ очень похожий на реальность, но далеко не факт, что истинный!

В ситуации с Антоном, мы не можем быть уверенны на 100%, что решения проблемы не существует, хотя ни Антону ни нам не удалось его найти. Однако, то, что ChatGPT, в данном вопросе не "признался честно", что не знает ответ, а стал выдумывать варианты - не есть хорошо! Ведь это не художественное произведение как-никак!

Кстати, а давайте узнаем, что сам ChatGPT думает по поводу истинности своих ответов?

На сколько можно доверять информации, которую ты предоставляешь?

Я предоставляю информацию на основе алгоритмов и обработки больших объемов данных. Моя задача - предоставлять ответы на вопросы на основе имеющихся знаний и данных.

Однако, как и любой другой источник информации, я могу ошибаться. Моя работа заключается в том, чтобы предоставлять наиболее точную и актуальную информацию, но некоторые ответы могут быть неполными, устаревшими или неточными.

Поэтому, я рекомендую использовать предоставленную мной информацию только в качестве отправной точки для дальнейших исследований и обязательно проверять ее на правильность и актуальность. Кроме того, я не могу гарантировать достоверность информации, которую я получаю от других источников, которые я использую для обработки ответов.

В общем, отмазался!

Что можно сказать в итоге, вспоминая вопрос, поставленный нами в начале статьи - а так ли страшен черт, как его малюют?

Страшен! Но, по нашему скромному мнению, люди боятся совершенно не того!

Сейчас будет появляться все больше и больше школьников, студентов, блогеров и даже ученых, которые будут не глядя размещать информацию, выданную вот таким вот искусственным интеллектом в Интернете! Затем на этой информации будут обучать новые нейронные сети и так далее. Есть предположение, что скоро мы все погрязнем во лжи! По крайней мере, будет очень тяжело определять где правда, а где ложь! Сейчас то это очень тяжело, а что будет дальше?

Надеюсь, мы все ошибаемся и этого не произойдет! А что думаете вы, дорогие читатели? Оставляйте свое мнение в комментариях.

Более подробно рассматриваем тему здесь:

СтопХлам! Проблема цифрового мусора и фейков
Цифровые мозги27 июня 2023

Дзен-канал "Цифровые мозги". Все об искусственном интеллекте, нейронных сетях и технологиях будущего.
Дзен-канал "Цифровые мозги". Все об искусственном интеллекте, нейронных сетях и технологиях будущего.