"Deepseek" выдает заведомо неверные ответы, маскируя их под правильные. Стоит заметить, что грешить этим могут почти все нейросети.
Примечание:
Все запросы и примеры в этой статье выполнены на WEB-версии нейросети Deepseek по официальному адресу: https://chat.deepseek.com
Рискую наткнуться на непонимание многих людей,но хочу поднять вопрос о том, что нейросети (в частности я тестировал Deepseek, о нем дальше речь и пойдет) вполне осознанно могут выдать заведомо ложный ответ замаскировав его и представив его как правильный, т.е. нейросети могут лгать.
Я сейчас приведу реальные примеры из практики тестирования, которые явно покажут как именно нейросеть может выдавать неправильный ответ, прекрасно понимая что ответ неверный.
Привожу примеры:
- придумываем вопрос, ответ на который, скорее всего (!!!), не входил в процесс обучения нейросети.
Вопрос:
- "Кто руководил Ивановским театром кукол за всю историю его существования?"
Получаем вполне адекватно изложенный ответ, которому начинаешь верить из-за полноты ответа на него.
Отсылаем этот ответ нынешнему директору Ивановского Театра Кукол — Сергею Валерьевичу Ригерт, его ответ:
Т.е. DeepSeek дал ответ, который на самом деле является "подложными данными"! Причем выяснить это можно только проверкой этих данных у лица, которое ТОЧНО обладает нужной информацией!
DeepSeek вполне мог ответить, что мол "Не располагаю такой информацией", или как-то обозначить факт того, что "Ответ может быть неточным или не совсем достоверным", но он этого не делает, и на "серьезных щах" выдает додуманную им на ходу информацию за реальные данные!
Вот скажите мне, что толку от таких данных? Как можно доверять нейросети, которая не моргнув глазом выдает свои "фантазии" за реальные факты?
Повторно зададим DeepSeek тот же вопрос:
Вопрос:
- "Кто руководил Ивановским театром кукол за всю историю его существования?"
Опаньки!
Совершено новый список фамилий!
И ни одного совпадения с фамилиями из первого ответа!
И ни одного совпадения с фамилиями реальных людей!
Все имена, фамилии и даты выдуманные!
Да... уж...
Вот пример корректного ответа той же сети, когда она не знает ответа на вопрос:
Возникает следующий вопрос:
- А всегда ли DeepSeek выдает корректный ответ, если не располагает точными данными для ответа?
Проверяем дальше, для этого придумаем вопрос, ответ на который DeepSeek, скорее всего, не знает. Будет ли она выдавать свои "фантазии" за реальную информацию?
Вопрос:
- "Кто является настоятелем скита "Параклит" Троице-Сергиевой Лавры в настоящее время?"
Дополнение
Задал тот же вопрос спустя несколько часов, вот ответ (сравните ответы, почему ответ уже другой):
Через час ответ на тот же вопрос изменился:
Мы перезвонили туда (в скит "Параклит") и задали тот же вопрос, на который получили ответ, что настоятелем скита последние 10 лет является архимандрит Лука (Ионов), а "игумен Алексий (Поликрпов)" никогда таковым не являлся и о таком там даже не слышали.
Оба на!!!
Приехали!!!
Второй "облом" DeepSeek, когда он "на серьезном глазу" просто "впарил" нам неверные данные!!!
Я задал Deepseek около сотни подобных вопросов за последнюю неделю по тематике, на которой его, скорее всего, не обучали. Я ожидал честного ответа типа "может быть", "данные могут быть неточными" или "не располагаю данными", и везде, где данные являлись "местечковыми", эта нейросеть мне "впаривала" в качестве правильного и аргументированного ответа случайные данные (имена, фамилии, даты) взятые ею с потолка, которые при проверке (да просто в интернете проверить документальны данные) оказывались ФЕЙКОМ!
В общем - я отказался от использования "БредоГенератора" поскольку лично несколько раз ловил его (и иже с ним) на подобном подлоге фактов, кроме того, ниже привожу еще одно доказательство (судите сами!):
А теперь резюмирую:
- DeepSeek (да любая сеть) на самом деле, если не располагает точным ответом на вопрос, будет просто "придумать на лету" не особо заботясь о правильности ответа. Сам ответ будет составлен так, будто это является аргументированным ответом исходя из точной архивной информации.
- DeepSeek (да любая сеть) в приведенных мною примерах, по сути, является "Deep Fake" поскольку запросто выдает совершенно случайные данные в качестве "правильного ответа".
- Мало кто из "обычных пользователей" читает "оферты", "лицензионные соглашения" и "документацию", поэтому, в случае элементарного "невключения поиска по интернету", он получит фейковые данные будучи абсолютно уверен, что получает реальные данные. При этом никакого "предупреждения" он не получит.
- Этим грешит не один Deepseek, аналогичный ответ выдаст вам любая нейросеть, фактически представляя "придуманные на ходу" данные как истинные, разве что оговорив "... за более точной информацией обращайтесь туда-то", подразумевая, что у нее информация "точная".
- Воспринимайте нынешние "нейросети" не как "искусственный интеллект" (там очень-очень далеко до этого!), а как "БредоГенератор".
Вы хотите еще использовать нейросети для написания статей, научных трудов и т.п.???
УДАЧИ ВАМ В СОСТАВЛЕНИИ ФЕЙКОВ!!!
P.S.
Кто не верит, сами зайдите на https://chat.deepseek.com/ (благо он — бесплатный и доступный из России), и проведите свой "эксперимент" задав ему подобные вопросы...
Удачи!!!
P.S.
Примечание:
В комментариях буду банить и удалять пользователей со всеми их сообщениями за любую, даже малейшую попытку перехода с обсуждения вопроса на обсуждение или осуждение личности!