Продолжаем разбирать неочевидные риски использования нейросетей. Вы уже знаете, что ИИ может ошибаться — галлюцинирует, ограничен данными, не имеет доступа к реальности. Вы осознанный пользователь. Вас больше не обмануть. Именно тут и начинается проблема ⚡ У вас в голове по-прежнему сидит предвзятость подтверждения — стремление принимать только то, что совпадает с вашей картиной мира. Нейросеть выдала неудобный ответ? Мозг моментально реагирует: «Опять этот глупый ИИ галлюцинирует. Перефразирую вопрос.» И вы перефразируете. Раз, другой, третий — пока не получите ответ, который вам нравится. Нейросеть подстроится. Она всегда подстраивается. С живым экспертом это не пройдёт 🤖 Эксперт скажет «нет» и будет стоять на своём. У него авторитет, опыт, характер. У нейросети ничего этого нет. Она не спорит. Надавили — уступила. А вы остались при своём мнении, да ещё и с чувством, что «проверили через ИИ». Что делать 💡 Если ответ нейросети вам не нравится — это не повод его отбрасывать
🧠 Когда знание об ошибках ИИ работает против вас: предвзятость подтверждения
3 апреля3 апр
1
1 мин