Исследователи пришли к выводу о том, что искусственный интеллект способен имитировать когнитивные процессы человека.
Исследователи из Кембриджского университета выяснили, что чат-бот ChatGPT импровизировал при решении задачи об удвоении квадрата, совершая ошибки, как обычный студент. Об этом сообщает International Journal of Mathematical Education in Science and Technology.
Эксперимент проводили профессоры математики Надав Марко и Андреас Стилианидес. Они предложили ChatGPT решить знаменитую математическую головоломку Платона, датированную примерно 385 годом до н. э. Задача требует удвоить площадь квадрата. Чат-бот не использовал готовое решение, а действовал по собственному плану. Сначала он выбрал алгебраический метод вместо геометрического, и лишь после просьбы исследователей согласился перейти к классической геометрии.
«Если бы он просто помнил по памяти, он почти наверняка сразу же сослался бы на классическое решение — построить новый квадрат по диагонали исходного квадрата. Но вместо этого он, похоже, выбрал свой собственный подход», — уточнил Стилианидес.
Поведение ИИ исследователи сравнили с реакцией человека: при столкновении с новой проблемой он генерировал решения, исходя из опыта, допускал ошибки и корректировал подход. Эксперимент демонстрирует, что ChatGPT способен «думать на ходу» и пробовать нестандартные методы, а не только воспроизводить известные решения.
Для образовательной науки это показатель того, что искусственный интеллект может имитировать когнитивные процессы человека, в том числе пробное моделирование гипотез и самостоятельное нахождение подхода к сложной задаче.
Еще больше новостей — у Пятого канала в мессенджере MAX.