Добавить в корзинуПозвонить
Найти в Дзене
Цифровая Переплавка

ИИ как зеркало науки: почему математика не прощает уверенной ошибки

История с высказыванием профессора логики Джоэла Дэвида Хамкинса — это не просто очередной скептический выпад против искусственного интеллекта. Это редкий момент честности в эпоху, когда ИИ принято либо обожествлять, либо ругать абстрактно. Хамкинс говорит о более глубокой проблеме: конфликте между природой математики и архитектурой современных больших языковых моделей. Математика — это не красивая форма и не убедительный текст. Это строгая цепочка логических переходов, где одна ошибка делает всё доказательство бессмысленным. А ИИ сегодня устроен иначе: В этом смысле ИИ сегодня — плохой собеседник для математика. Не потому, что он ошибается (ошибаются и люди), а потому что он не признаёт ошибки как категорию. На подкасте Lex Fridman Podcast Хамкинс подчёркивает важный момент: проблема не в том, что модели «ещё слабые». Проблема в том, что сама парадигма LLM плохо совместима с задачами, где: Да, существуют формальные системы доказательств — Coq, Lean, Isabelle — и да, ИИ может помогать
Оглавление

История с высказыванием профессора логики Джоэла Дэвида Хамкинса — это не просто очередной скептический выпад против искусственного интеллекта. Это редкий момент честности в эпоху, когда ИИ принято либо обожествлять, либо ругать абстрактно. Хамкинс говорит о более глубокой проблеме: конфликте между природой математики и архитектурой современных больших языковых моделей.

Где именно ИИ «ломается»

Математика — это не красивая форма и не убедительный текст. Это строгая цепочка логических переходов, где одна ошибка делает всё доказательство бессмысленным. А ИИ сегодня устроен иначе:

  • 🧠 Он оптимизирует правдоподобие, а не истинность — модель выбирает следующий токен так, чтобы он выглядел логично, а не был формально корректен.
  • 🧱 Нет внутреннего механизма проверки — LLM не «знает», что доказательство неверно, если это не отражено в статистике данных.
  • 🎭 Уверенность без ответственности — самая опасная черта: модель не сомневается, даже когда ошибается, и не чувствует противоречий.

В этом смысле ИИ сегодня — плохой собеседник для математика. Не потому, что он ошибается (ошибаются и люди), а потому что он не признаёт ошибки как категорию.

Почему это не просто «детская болезнь технологии»

На подкасте Lex Fridman Podcast Хамкинс подчёркивает важный момент: проблема не в том, что модели «ещё слабые». Проблема в том, что сама парадигма LLM плохо совместима с задачами, где:

  • истина бинарна (верно / неверно);
  • проверка важнее генерации;
  • доверие строится на строгой воспроизводимости.

Да, существуют формальные системы доказательств — Coq, Lean, Isabelle — и да, ИИ может помогать в них как ассистент. Но это уже не «поговорить с моделью», а встроить её в жёсткий формальный контур, где каждое утверждение проверяется машиной. И именно там ИИ резко «умнеет», потому что у него отбирают право фантазировать.

Иллюзия прогресса и реальность науки

Сегодня мы часто слышим истории о том, как ИИ «помог решить задачу Эрдёша» или «нашёл новое доказательство». Но за кулисами обычно скрывается важная деталь:
ИИ
предлагает идеи, а человек делает всю тяжёлую работу по их проверке, исправлению и формализации.

  • 🔬 В прикладных науках это допустимо — гипотеза может быть кривой.
  • 🧮 В фундаментальной математике — нет. Там цена ошибки слишком высока.

Личное мнение? Высказывание Хамкинса — это не антииишный манифест, а полезный холодный душ. Он напоминает: интеллект — это не только умение говорить уверенно, но и способность останавливаться и сомневаться. А этому современные LLM пока не обучены.

Вывод

ИИ сегодня — отличный инструмент для:

  • обучения,
  • поиска аналогий,
  • генерации черновиков,
  • объяснения известных идей.

Но в роли полноценного соавтора математических исследований он пока опасен именно потому, что выглядит слишком убедительно. И, возможно, главный навык учёного ближайших лет — не «уметь пользоваться ИИ», а уметь ему не верить.

🔗 Источник новости:
https://officechai.com/ai/llms-are-currently-not-helpful-at-all-for-math-research-give-garbage-answers-mathematician-joel-david-hamkins/