Найти в Дзене
RixAI

Нейросеть решила задачу Платона возрастом 2000 лет — и облажалась самым интересным образом

Учёные дали ChatGPT геометрическую задачу из древней Греции. Нейросеть сначала справилась, потом запуталась, а в итоге показала нечто неожиданное — она импровизировала. Разбираемся, что это значит для понимания искусственного интеллекта и почему ошибки ИИ важнее правильных ответов. Платон описал её почти 2400 лет назад. Звучит просто: как удвоить площадь квадрата? На первый взгляд кажется, что нужно просто взять сторону и умножить на два. Но нет. Если удвоишь сторону, площадь увеличится в четыре раза. Правильный ответ: построить новый квадрат, где сторона равна диагонали исходного. Математика работает так: если сторона квадрата = 1, то диагональ = √2. Площадь нового квадрата = (√2)² = 2. Вуаля, удвоение. Для древних греков это была не просто задачка. Это был способ тренировать логику, учить рассуждать, видеть неочевидные решения. Платон использовал её, чтобы показать: знание приходит через размышление, а не через зубрёжку. Учёные из Кембриджа и Еврейского университета в Иерусалиме реши
Оглавление
Нейросеть решила задачу Платона возрастом 2000 лет — и облажалась самым интересным образом
Нейросеть решила задачу Платона возрастом 2000 лет — и облажалась самым интересным образом

Учёные дали ChatGPT геометрическую задачу из древней Греции. Нейросеть сначала справилась, потом запуталась, а в итоге показала нечто неожиданное — она импровизировала. Разбираемся, что это значит для понимания искусственного интеллекта и почему ошибки ИИ важнее правильных ответов.

Задача из 385 года до нашей эры

Платон описал её почти 2400 лет назад. Звучит просто: как удвоить площадь квадрата?

На первый взгляд кажется, что нужно просто взять сторону и умножить на два. Но нет. Если удвоишь сторону, площадь увеличится в четыре раза.

Правильный ответ: построить новый квадрат, где сторона равна диагонали исходного. Математика работает так: если сторона квадрата = 1, то диагональ = √2. Площадь нового квадрата = (√2)² = 2. Вуаля, удвоение.

Для древних греков это была не просто задачка. Это был способ тренировать логику, учить рассуждать, видеть неочевидные решения. Платон использовал её, чтобы показать: знание приходит через размышление, а не через зубрёжку.

Учёные из Кембриджа и Еврейского университета в Иерусалиме решили проверить: а сможет ли ChatGPT такое провернуть?

Почему именно эту задачу выбрали для теста

Выбор был неслучайным. Исследователи искали задачу, которой точно нет в тренировочных данных ChatGPT в готовом виде.

Логика эксперимента:

[1] ChatGPT обучался на текстах — статьи, книги, форумы, обсуждения. Геометрических визуализаций в его базе минимум.

[2] Задача Платона описана в текстах, но её решение требует пространственного мышления — понимания, как диагональ соотносится с площадью.

[3] Если ИИ найдёт правильный ответ, это будет означать: он не просто воспроизводит заученное, а выводит новое знание на основе имеющегося.

Вопрос фундаментальный: математические способности врождённые или приобретаются через обучение? Если нейросеть может рассуждать математически, не имея встроенной "интуиции", значит, обучение решает всё.

Эксперимент начался.

Что случилось: сначала победа, потом провал

ChatGPT получил задачу: удвоить площадь квадрата.

Результат: нейросеть справилась. Предложила построить квадрат со стороной, равной диагонали исходного. Дала разумное объяснение. Всё чётко.

Учёные обрадовались. Но на этом не остановились.

Усложнили задачу: а теперь удвой площадь прямоугольника.

И тут началось самое интересное.

ChatGPT заявил: это невозможно с точки зрения геометрии.

Стоп. Учёные знали, что решение существует. Более того, оно не сильно сложнее квадратной версии. Но нейросеть уверенно сказала: "Нельзя".

Что это значило?

ИИ не процитировал готовый ответ из базы данных. Он импровизировал. Попытался применить логику, которую использовал для квадрата, к новой ситуации — и ошибся.

Это была не просто ошибка. Это было рассуждение.

Почему ошибка важнее правильного ответа

Надав Марко, один из авторов исследования, сказал важную вещь: вероятность того, что ложное утверждение "удвоить прямоугольник невозможно" встречалось в тренировочных данных, практически нулевая.

Подумай об этом. Интернет полон правильных решений математических задач. Но неправильных формулировок конкретно этой задачи там нет. ChatGPT не мог скопировать эту ошибку — он её создал.

Как это работало:

[1] Нейросеть решила задачу с квадратом, используя концепцию диагонали
[2] Попыталась применить тот же подход к прямоугольнику
[3] Не увидела очевидного пути (потому что у прямоугольника две разные стороны)
[4] Сделала вывод: раз метод не работает напрямую, задача невыполнима

Это поведение жутко похоже на человеческое. Ученик решает задачу типа А, потом видит задачу типа Б, пытается применить тот же метод — и облажывается. Классика обучения.

ИИ вёл себя не как калькулятор. Он вёл себя как студент, который рассуждает.

Проблема чёрного ящика

Профессор Андреас Стилианидес, соавтор исследования, указал на главную проблему: мы не понимаем, как именно ИИ пришёл к ответу.

Видим результат. Не видим процесс.

Для древних греков важен был путь рассуждения. Платон учил не просто давать ответы, а показывать логику, объяснять шаги, доказывать каждое утверждение.

Для ChatGPT процесс — чёрный ящик. Входные данные → магия нейронных сетей → выходной результат. Что происходит внутри? Триллионы математических операций, веса связей, активации нейронов. Объяснить это человеческим языком почти невозможно.

Почему это проблема:

[1] Если ИИ даёт правильный ответ, мы не знаем, угадал он или рассуждал
[2] Если ИИ ошибается, мы не можем указать, где именно сломалась логика
[3] Нельзя доверять результату на 100%, потому что нет способа его проверить изнутри

Стилианидес подчеркнул: в отличие от учебников, где каждое доказательство проверено редакторами и экспертами, выводам ChatGPT доверять на слово нельзя.

И это правильная позиция.

ИИ не думает — он симулирует мышление

Важное уточнение: нейросети не мыслят в человеческом понимании.

У тебя в голове есть сознание, эмоции, интуиция, опыт, способность к абстракции. Ты можешь вдруг осознать что-то новое, испытать инсайт, почувствовать, что решение "правильное", ещё до того, как его проверишь.

У ChatGPT этого нет. У него есть:

[1] Огромная база данных — тексты, на которых он обучался
[2] Паттерны — закономерности, которые он выявил в этих текстах
[3] Вероятностная модель — какие слова чаще следуют друг за другом в контексте

Когда ты задаёшь вопрос, ИИ не "думает". Он предсказывает, какой текст наиболее вероятен в ответ на твой запрос. Это статистическая машина, которая научилась имитировать человеческую речь на невероятно высоком уровне.

Но имитация ≠ понимание.

Аналогия: попугай может повторить фразу "я понимаю квантовую физику". Он произнесёт её идеально. Но это не значит, что он хоть что-то понимает в квантовой физике.

ChatGPT — умный попугай. Очень, очень умный. Настолько, что иногда кажется, будто он реально соображает. Но соображает ли?

Человекоподобное поведение открывает новые перспективы

Исследователи осторожны в выводах. Они не утверждают, что ИИ решает задачи так же, как человек. Но они видят потенциал.

Что можно сделать с этим знанием:

[1] Тестировать ИИ на более сложных задачах. Посмотреть, как он справляется с вещами, которых точно нет в тренировочных данных.

[2] Комбинировать с системами динамической геометрии. Дать ИИ возможность не просто рассуждать текстом, но и строить визуальные модели, проверять гипотезы через симуляции.

[3] Превратить в инструмент совместного исследования. Студент + ChatGPT = команда, где человек задаёт направление, а ИИ помогает перебирать варианты, проверять идеи, находить паттерны.

Ключевая идея: не использовать ИИ как оракула, который даёт готовые ответы. А как цифрового напарника, с которым можно мыслить вслух, спорить, проверять гипотезы.

Критическое мышление важнее, чем когда-либо

Вывод Стилианидеса резонирует: студентам нужно учиться проверять и критически оценивать то, что выдаёт ИИ.

Раньше, если что-то написано в учебнике, можно было доверять. Редакторы проверили, эксперты подтвердили, издательство поставило печать.

С ChatGPT по-другому. Он может:

  • Звучать убедительно, но ошибаться
  • Цитировать несуществующие источники
  • Выдумывать факты, которые выглядят правдоподобно
  • Применять логику неправильно, но уверенно

Новая компетенция для цифровой эпохи: не просто уметь задавать вопросы ИИ, но и проверять его ответы. Требовать доказательства. Искать подтверждения. Не принимать на веру.

Это как с Википедией 15 лет назад. Сначала все боялись: "студенты будут копировать оттуда, не проверяя!" Потом научились использовать правильно: как отправную точку, но не финальный источник.

С ИИ будет так же. Просто темп быстрее.

Что дальше: ИИ как партнёр, а не замена

Эксперимент с задачей Платона показал не то, что ИИ умнее людей. И не то, что он глупее.

Он показал, что ИИ может рассуждать по-человечески — пробовать, ошибаться, корректировать. Это делает его ценным инструментом для обучения и исследований.

Представь:

Студент решает сложную задачу. Застревает. Обращается к ChatGPT. ИИ предлагает подход. Студент проверяет, находит ошибку, указывает на неё. ИИ корректирует. Вместе они приходят к решению.

Это не списывание. Это коллаборация. Человек думает, ИИ помогает перебирать варианты. Человек проверяет, ИИ ускоряет процесс.

Платон был бы доволен. Его задача учила не запоминанию, а размышлению. И если ИИ помогает людям размышлять глубже, задавать больше вопросов, проверять смелее — это хороший инструмент.

Главное — не забывать, что финальное решение всегда за человеком.

Вывод: ошибки ИИ — это фича, а не баг

ChatGPT решил задачу Платона. Потом облажался с прямоугольником. И это круто.

Потому что ошибка показала: нейросеть не просто копирует заученное. Она пытается рассуждать. Пусть несовершенно, пусть через статистические паттерны, но рассуждать.

Главное открытие: ИИ можно использовать как партнёра в обучении. Но только если относиться к нему критически, проверять выводы, не доверять слепо.

Древние греки учили думать. Современный мир учит думать вместе с машинами. И это не деградация — это эволюция.

Главное — не забывать включать голову. Потому что ИИ может имитировать мышление. Но думать за тебя он не будет.

Как ты используешь ChatGPT? Доверяешь ему или всегда перепроверяешь? Делись в комментариях — интересно узнать разные подходы 👇

Лайкни, если тема зашла, и подписывайся на канал — будем дальше копать, как ИИ меняет способы обучения и мышления. Реально меняет, а не в теории.