В ноябре 2025 года один предприниматель отправил партнёру письмо с цитатой: «Как говорил Стив Джобс: “ИИ — это не инструмент, это зеркало”» Партнёр ответил: «Круто! А где он это сказал?»
Оказалось — нигде.
Джобс этого не говорил.
Эту фразу придумал ChatGPT. Такие случаи называют «галлюцинациями» — когда ИИ выдаёт убедительную, но ложную информацию.
Но почему это происходит — и главное: как не попасть впросак? ИИ не врёт. Он угадывает. Представь: тебя просят продолжить фразу: «Самый известный афоризм Стива Джобса — …» Ты, скорее всего, скажешь: «…“Stay hungry, stay foolish”».
Но если бы ты читал много статей про ИИ и Джобса, мог бы сказать: «…“ИИ — это зеркало”» — потому что часто видел такие связки. ИИ делает то же самое.
Он не проверяет факты. Он выбирает наиболее вероятное продолжение на основе миллиардов текстов.
Если в интернете 100 раз написано «Джобс + ИИ + зеркало» — он считает это правдой. 💡 Галлюцинация — это не баг. Это следствие того, что ИИ моделирует язык, а не реальност