Казалось бы робот, а несмог набрать даже половины баллов по тестам математики (я и сам её недолюбливаю). Система DeepMind от Google, которая долгое время изучала школьный курс математики, алгебры и немного геометрии, по результатам проверки набрала всего 14 баллов из 40. И тем самым невыполнила тест, ориентированный на проверку знаний уровня 16-летних школьников.
Исследование проходило в Великобритании. Она вовсе не такая сложная, как может показаться — разработчики DeepMind уже разобрались, в чем была проблема. Оказывается, хоть ИИ с легкостью решает многие математические задачи, ему все еще не под силу распознать постановку самой задачи – в том виде, в каком ее получают школьники.
Вместо четкого набора данных ИИ получает «неконкретный» с его точки зрения текст, где буквенные символы перемешаны с числами, а словесные описания перемежаются формулами. То, что для обученного школьника выглядит логичным и понятным (но не для меня, т.к я тоже гуманитарий), вынудило алгоритмы DeepMind затратить едва ли не все ресурсы системы просто на распознавание и извлечение информации.
*Основная информация и фотографии были взяты из открытых источников.