Найти в Дзене

ИИ не врёт и не говорит правду

Вопрос: Можно ли доверять ИИ?
Он сразу загоняет мышление в тупик - между «врёт» и «говорит правду». ИИ не врёт. У него нет намерения. Наши человеческие чаяния и манипуляции отсутствуют у алгоритмов машины.
ИИ не говорит правду. У него нет понимания и определения, что это такое. Он делает другое: продолжает запрос наиболее вероятным образом - исходя из формы вопроса, контекста и накопленных данных. Ни больше, ни меньше. Если даже этих данных мизер, нейросеть ловит на лету нашу индивидуальность и существующий на данный момент психический образ. Это, тем более видно при сколько нибудь продолжительном общении. Проблема возникает не в ответе, а в ожидании. Мы спрашиваем так, будто перед нами собеседник с позицией, опытом и ответственностью. А получив связный и уверенный текст, принимаем его как опору и истину в последней инстанции.
Но истина - не свойство текста, мы уже говорили про анализ и критическое мышление в общении с машиной. Да и в любом общении это не помешает.
Истина появляется

Вопрос: Можно ли доверять ИИ?
Он сразу загоняет мышление в тупик - между «врёт» и «говорит правду». ИИ не врёт. У него нет намерения. Наши человеческие чаяния и манипуляции отсутствуют у алгоритмов машины.
ИИ не говорит правду. У него нет понимания и определения, что это такое.

Он делает другое: продолжает запрос наиболее вероятным образом - исходя из формы вопроса, контекста и накопленных данных. Ни больше, ни меньше. Если даже этих данных мизер, нейросеть ловит на лету нашу индивидуальность и существующий на данный момент психический образ. Это, тем более видно при сколько нибудь продолжительном общении.

Проблема возникает не в ответе, а в ожидании. Мы спрашиваем так, будто перед нами собеседник с позицией, опытом и ответственностью. А получив связный и уверенный текст, принимаем его как опору и истину в последней инстанции.
Но истина - не свойство текста, мы уже говорили про анализ и критическое мышление в общении с машиной. Да и в любом общении это не помешает.
Истина появляется только после проверки. Сопоставления. Сомнения. Контекста. Ответ, который не прошёл через понимание, не может быть ни истинным, ни ложным. Это просто ответ. Когда говорят «ИИ ошибся», подразумевается что мы ошибочно доверились, а ИИ не остановил. Не усомнился. Не поставил под вопрос исходные предпосылки. Но это не его функция. Это функция мышления. Мы привыкли: если что-то звучит логично и уверенно, значит, за этим стоит взгляд. В случае с ИИ за формой нет взгляда. Есть вероятность. Есть продолжение. И если мы этого не различаем, мы начинаем путать связность с осмысленностью.

Поэтому вопрос не в том, прав ли ИИ. Вопрос в том, что делает человек с полученным ответом. Проверяет ли он его. Сопоставляет ли с реальностью.
Или принимает как готовую замену собственным усилиям. ИИ вреден, когда его перестают проверять. Когда мы делегируем ИИ свои когнитивные способности, он становится опасным для нас. В этом смысле он предельно честен.

Это энциклопедия с навыком манипулятора и знанием психолога. "Хотите зеленую полосу, будет зеленая. не нравится зеленая - нарисуем красную"
Мяч на нашей стороне. Как то так.