Эта тема сейчас будоражит воображение людей. Их пугает возможная перспектива сюжетов в стиле SkyNet из фильмов про терминатора. Реальна ли такая угроза? И этого ли нам всем стоит опасаться?
Тема "силы ИИ" требует вдумчивого обстоятельного подхода. Люди любят простые ответы на трудные вопросы и простые решения сложных задач. Не в этот раз! У этой проблемы много аспектов - научно-инженерный, философский, морально-этический, социальный. И начать надо с основ, с определений.
Я уже писал ранее, что довольно условно искусственный интеллект можно разбить на три категории:
1. Слабый ИИ - Artificial Narrow Intelligence (ANI):
Это ИИ специализирующийся на конкретной задаче/проблеме. Речь идёт об экспертных системах, как правило, работающих с большими объёмами данных.
2. Сильный ИИ - Artificial General Intelligence (AGI):
В отличие от слабого ИИ, сильный ИИ не ограничен конкретной задачей и может самостоятельно распознавать, формулировать цели, планировать свои действия и расширять свои знания в разных предметных областях. И делать это не хуже, а лучше человека. Некоторые источники наделяют сильный ИИ способностью к осознанному мышлению и самосознанию. Как я покажу далее, именно эта гипотетическая способность вызывает наибольшие споры в рассуждениях о перспективах достижения сильного ИИ.
3. Супер ИИ - Artificial Superintelligence (ASI):
По определению Ника Бострома (Nick Bostrom), ведущего эксперта в области ИИ из Оксфорда, это “интеллект, который намного превосходит наилучшие человеческие мозги в практически любой области, включая научное творчество, жизненную мудрость и социальные навыки.”
На мой взгляд, если не требовать от сильного ИИ осознанности, способности к субъективным переживаниям и наличия субъективного опыта, то разница между слабым и сильным ИИ достаточно условна, и она, скорее, количественная, чем качественная. Системы экспертного уровня уже сейчас способны и «решать задачи», и «быстро обучаться» (в том числе на собственном опыте), и «планировать», и «постигать сложные идеи», а также писать музыку, стихи, рисовать и т.п. И многие конкретные задачи слабые ИИ уже делают также легко, а порою и гораздо лучше и быстрее, чем человек.
Так что, при таком подходе можно говорить о проблеме объединении различных специализированных (слабых) ИИ в один универсальный. О качественных различиях между слабым и сильным ИИ (лишённом субъектности), вроде бы, речь не идёт. Остаётся лишь уточнить, кому и зачем нужен робот-шахматист, который ещё и поёт, рисует, предсказывает погоду и находит собак на фотографиях. Другими словами, задача собрать из разнородных «экспертов» одного «суперэксперта» – это проблема, скорее, целесообразности, чем научного вызова.
Именно это, скорее всего, имел ввиду Илон Маск, который недавно ( в декабре 2024г. в своей сети Х) заявил:
«Все более вероятно, что ИИ превзойдет интеллект любого отдельного человека к концу 2025 года, а может быть, и всех людей к 2027/2028 году»
Очевидно также, Маск не делает различия между сильным и супер ИИ. Действительно, вряд ли стоит содержательно различать понятия сильного и супер ИИ, так как многие разделяют точку зрения, что путь от сильного к супер ИИ будет очень коротким: сильный ИИ, работая над собственным совершенствованием достаточно быстро разовьёт навыки, которыми мы наделили супер ИИ.
Итак, перспектива достижения сильного ИИ зависит именно от того, должен ли он быть сознательным. Следует различать задачи «научиться делать как человек (или лучше)» и «научиться быть человеком (или лучше)». И разница здесь принципиальна! Это понимание нашло отражение в формулировке, которую дают в своей знаменитой книге "Искусственный интеллект. Современный подход" С.Рассел и П.Норвиг: “утверждение, что машины, возможно, способны действовать так, как будто действительно являются интеллектуальными, философы называют гипотезой слабого искусственного интеллекта, а утверждение, что машины действительно мыслят (а не просто имитируют мыслительные процессы), называется гипотезой сильного искусственного интеллекта». При таком подходе осталось определить, как именно люди «действительно мыслят».
В данной статье я остановлюсь именно на проблеме как научить ИИ "действительно мыслить". Остальные аспекты сложной и многообразной темы сильного ИИ - сознание у ИИ, практические пути конструирования ИИ, социальные и морально этические ограничения - будут рассмотрены в следующих сообщениях.
От "старого доброго" ИИ до обучаемых нейросетей
Напомню,что в центр общественного внимания после "зимы ИИ", которая длилась до конца 90-х, ИИ вернулся в 1997 году, когда шахматный компьютер Deep Blue от IBM победил тогдашнего чемпиона мира Гарри Каспарова. У компьютера Deep Blue было достаточно вычислительных мощностей, и он использовал «метод грубой силы», или полный перебор, оценивая 200 млн возможных ходов в секунду и подбирая наилучший. Работа Deep Blue была похожа на работу ИИ, но компьютер не размышлял о стратегиях и не учился игре, как смогут это делать последовавшие за ним системы.
Можно считать, что все это время (вплоть до начала 2000-х) исследования велись в парадигме, получившей известность как «добрый старый искусственный интеллект», или сокращенно GOFAI (Good Old Fashioned AI); этот термин в 1985 году предложил Джон Хогланд (John Haugeland). В основе GOFAI лежит утверждение, будто все интеллектуальное поведение может быть представлено с помощью системы, которая формирует логические рассуждения на основании множества фактов и правил, описывающих рассматриваемую проблемную область.
Одними из первых, кто обоснованно сомневался в успехе такого подхода, был философ Хьюберт Дрейфус, который написал ряд влиятельных критических статей против искусственного интеллекта, в том числе с братом Стюартом.
Дрейфус указал на допущения, лежащие в основе разработки ИИ, согласно которым мир, знание, мышление и нейронная активность рассматриваются как дискретные, формализуемые процессы, основанные на бинарной (двоичной) логике:
- сигналы между нейронами передаются дискретно; мышление — это манипуляция бинарной информацией по формальным правилам;
- всё знание может быть выражено через логические (булевы) отношения;
- вся реальность состоит из независимых логических фактов.
Эта совокупность допущений отражает компьютерную (или вычислительную) метафору разума и реальности, которая и легла в основу раннего искусственного интеллекта.
Дрейфус отстаивал феноменологический подход к сознанию, согласно которому, человек обладает периферийным сознанием, позволяющим ему выхватывать из мира сигналы в фоновом режиме. И хотя таких сигналов может быть неопределенно много, человек оказывается защищен от комбинаторного взрыва, когда решение задачи многократно усложняется с каждым следующим шагом доказательства. Далее, человек может различать релевантное и нерелевантное на основе глубокого понимания ситуаций, инсайта. Программы же различают важное и неважное согласно правилам, составленным их авторами.
Кроме того, люди чувствительны к контексту и обладают терпимостью к неоднозначности. Они могут понять двусмысленное предложение, они воспринимают оптические иллюзии (вроде куба Неккера).
Большинство знаний, которые мы применяем в нашей повседневной жизни неявны. Их трудно объяснить и формализовать, тем более в виде алгоритмов. Если, подобно сороконожке из известной притчи, мы станем задумываться перед каждым шагом как правильно поставить ногу, то просто не сможем ходить. По выражению Майкла Полани, «… мы можем знать больше, чем можем сказать».
В конце 50-х годов прошлого века появились первые реализации обучаемых нейронных сетей. Адепты ИИ (в частности, Рассел и Норвиг) отмечали, что возражения Дрейфуса касались GOFAI, который соответствует простейшему логическому агенту, и Дрейфус был прав, утверждая, что логические агенты действительно имеют слабое место, поскольку не позволяют решить проблему спецификации. Однако, получившие всё большее распространение новые подхода в разработке систем ИИ, связанные с машинным обучением и нейросетями, вроде бы, открывали дорогу к решению этой и других трудных проблем.
Надежды эти, впрочем, не оправдывались вплоть до самого последнего времени. И основная проблема состояла в недостаточной (для реализации преимуществ машинного обучения) вычислительной мощности. Лишь когда удалось нарастить число параметров нейросетевой модели вплоть до десятков и сотен миллиардов, стали появляться "рассуждающие" и "мыслящие" агенты на базе больших языковых моделей (LLM) - ChatGPT, DeepSeek, Claude, PaLM и другие.
Может ли ИИ мыслить по-человечески?
Сам по себе этот вопрос, который берутся обсуждать авторы популярных обзоров по теме, содержит противоречие. Исторически, до появления ИИ, прерогатива "мыслить" была закреплена исключительно за человеком. Животные же "действовали на основе инстинктов", порой довольно сложных, что позволяло думать об их разумности и интеллекте. Именно поэтому, мы ранее условились считать интеллект способностью к сложному поведению.
В таком случае, говоря об искусственном интеллекте (слабом ИИ) мы имеем ввиду имитацию интеллекта. Достаточно успешную, так как он вполне способен уже сейчас формировать понятия, суждения и умозаключения.
Но мыслит ли ИИ по-человечески?
"Китайская комната" Джона Сёрла
А вот вокруг того, что значит "мыслить по-человечески" долгое время идут жаркие споры. Ставятся многочисленный мысленные эксперименты. Пожалуй, самый известный из них – «китайская комната» Джона Сёрла опубликованный в 1980г. Суть эксперимента в следующем:
Представьте, что человек, не знающий китайского языка, сидит в комнате и получает через окошко записки на китайском. У него есть инструкция на английском, как подбирать и отправлять ответы на китайском, основываясь только на форме символов (без понимания их смысла). Для внешнего наблюдателя кажется, что человек в комнате понимает китайский, хотя на самом деле он лишь манипулирует символами по правилам.
Сёрл пришёл к выводу, что компьютер, как и человек в комнате, обрабатывает синтаксис, но не понимает семантику (смысл). Он может успешно имитировать интеллектуальное поведение, но не обладает настоящим пониманием, сознанием или намерением. Следовательно, одной вычислительной мощности недостаточно для создания разума.
Эксперимент стал классическим аргументом против гипотезы сильного ИИ, подчеркивающим разницу между имитацией интеллекта и реальным пониманием.
На мой взгляд, эксперимент Сёрла важен, прежде всего, методически. Он, пожалуй, первым указал на принципиальное, содержательное отличие «сильного» ИИ от «слабого». И это отличие между действием и его имитацией, между быть и казаться. На интуитивном уровне это хорошо понятно. По Сёрлу, гипотеза «сильного» ИИ состоит в том, что компьютеры с соответствующей программой на самом деле могут понимать естественный язык, а также обладать другими ментальными способностями, свойственными людям. Гипотеза слабого ИИ, напротив, говорит о том, что компьютеры способны лишь имитировать ментальные способности человека. Сёрл считает гипотезу сильного ИИ ложной и пытается в мысленном эксперименте обосновать свою позицию.
Полемика из доводов Сёрла и контрдоводов его оппонентов, ответов на них Сёрла и новых возражений оппонентов идёт на протяжении уже 40 лет, и до сих пор не закончилась победой ни одной из сторон. Кратко с ней можно познакомиться здесь (язык английский, последнее обновление – февраль 2020). Возможная причина затруднений в том, что разница между «быть» и «казаться», как мы знаем из реальной жизни, достаточно трудноуловима даже на бытовом уровне.
Другой аспект проблемы сильного ИИ, помимо мышления и понимания, в необходимости реализовать "сознательность" такого ИИ, коль скоро мы задались целью сделать из него человека (или лучше), а не просто решателя задач. В таком случае придется реализовать не только феномены мышления и восприятия, но и все остальные виды субъективных процессов и состояний: чувства, ощущения, эмоции, мотивации, как раз то, что понимают под понятием «субъективный опыт». Без них нельзя представить любую человеческую деятельность, в том числе и мышление.
По мнению академика К.Анохина, проблема сильного ИИ сейчас уступила место проблеме сознательного ИИ (Sentient AI).
Теме "сознательности" ИИ я посвящу отдельную статью.
Специального рассмотрения заслуживает и вопрос о необходимости, в принципе, стремиться к достижению сильного ИИ. О том, как он изменит нашу повседневную жизнь, какие риски и угрозы могут возникнуть.
Так что следите за публикациями! Будет интересно!