Коллеги прислали мне на изучение статью, которая была опубликована в уважаемом издании Forbes буквально на днях: Искусственный Интеллект оказался неразрешимой задачей. Обратите внимание на заголовок. ИИ уже оказался неразрешимой задачей. Действительно, сотни тысяч специалистов, которые занимаются исследованиями в этой области, могут складывать свои инструменты и расходиться по курсам повышения квалификации. Ведь в Forbes написали, что ИИ оказался неразрешимой задачей.
Впрочем, далее в статье журналист исправился, и в ней действительно описаны интересные результаты, что действительно одна задача машинного обучения упирается в гипотезу Кантора о том, равна ли мощность континуума двойке в степени א-0 или это какое-то промежуточное кардинальное число между א-0 и א-1 (чёрт, направление письма в иврите не даёт мне правильно написать это обозначение). В общем, суть этого парадокса знакома любому второкурснику технического университета — банальная проблема останова и гёделевы выражения. Фишка результата израильских математиков в том, что они обнаружили такое гёделево выражение для прикладной задачи машинного обучения.
Но никакого прикладного значения это не имеет. Системы машинного обучения для распознавания образов всегда будут иметь некоторые ограничения по объёму обучающей выборки. Более того, человеческий мозг устроен именно так же, в нём нет ничего такого, что делает его более сильным с точки зрения классификации и распознавания образов — просто у нас в голове почти 90 миллиардов нейронов, работающих параллельно, и этой степени сложности не достигла ещё ни одно искусственная система. Но наш мозг тоже подвержен иллюзиям и когнитивным искажениям, в том числе мы видим того, чего нет, и не видим того, что есть.
Проблема неразрешимости некоторых вычислительных задач (на самом деле, не некоторых, а подавляющего большинства) лежит за рамками вопроса о возможности создания интеллекта. Ну просто потому, что один пример интеллекта у нас есть, и потому нет фундаментальных причин для того, чтобы не создать ещё один.