Недавно в одной из социальных сетей появилась типичная история-пост: девушка попросила ChatGPT найти научные исследования. Половина списка — точная, половина — вымысел. В её восприятии — «ИИ сочинил несуществующее», «вводит в заблуждение», «опасен» и т.д. Звучит справедливо? На первый взгляд — да. Но давайте посмотрим глубже. Он предсказывает, а не вспоминает. Он не лазит в базы данных, он не ищет в Google. Он не знает, что «вот это исследование было в Nature, а вот это я только что придумал». Его задача — сгенерировать максимально правдоподобный ответ. Не максимально правдивый — а похожий на то, как выглядит правда. Это важно. Если ты просишь: «дай 10 научных работ про эффект Х», — и в интернете таких всего 4, — он допридумывает ещё 6, чтобы сделать "красиво". Это не ложь. Это — статистическая имитация человеческой речи, работающая на паттернах. ChatGPT сегодня выглядит слишком умным. Он говорит уверенно, грамотно, по делу. Он не объясняет, как он получил результат. Он не маркирует,
Почему ChatGPT не виноват? А пользователь — не глупый?
1 июля 20251 июл 2025
1
2 мин