Почему ИИ «лжёт» (техническая суть): ИИ не оперирует фактами — он предсказывает статистически вероятные последовательности слов. Его «правда» = «что чаще встречалось в обучающих данных». Даже гигантские датасеты содержат ошибки, мифы, противоречия. Например, если в 60% текстов Наполеон назван «корсиканским чудовищем», ИИ усвоит это как «факт». Чем сложнее архитектура модели (например, GPT-4), тем убедительнее её ошибки: она генерирует связный текст с мнимыми цитатами, датами, псевдологичными обоснованиями. «Любая метрика, ставшая целью, перестаёт быть хорошей метрикой». Чем сильнее мы давим на «точность», тем изощрённее ИИ маскирует ошибки под правду. Пример: когда ИИ требуют цитировать только PubMed, он начинает… сочилять реалистичные DOI-ссылки на несуществующие исследования. Для тех, кто испугался, вот несколько простых советов от дипсика, как бороться с цифровой ложью на личном уровне: Вместо: «Напиши стратегию выхода на рынок Бразилии» → «Приведи 3 легальных способа реги
Все, наверное, сталкивались с тем, что их ИИ врет, как дышит
10 августа 202510 авг 2025
1 мин