Вышла моя большая статья в академическом издании http://digital-economy.ru/images/easyblog_articles/1258/DE-2025-01-06.pdf
Но поскольку читают эти журналы только в Академии наук, то статью перепечатали энтузиасты здесь: http://www.oboznik.ru/?p=82020
Там можно почитать полную версию статьи с экрана. Это вторая часть статьи, первую часть можно почитать здесь:
https://dzen.ru/a/Z-VOQbS4yTPcQvmF
Вкратце, там я говорил о непрозрачности и сложности алгоритмов искусственного интеллекта, что повлечет за собой множественные техногенные катастрофы из-за ошибок управления техническими, технологическими, логистическими и прочими процессами, которыми сейчас управляют разные программные системы.
Это первый сценарий. Всего возможны три основных неблагоприятных сценария и различные их комбинации. Сценарии даны в порядке возрастания их опасности и сложности нивелирования последствий.
Второй – катастрофа гносеологическая, порожденная информационным шумом, создаваемым искусственным интеллектом.
Третья – катастрофа экономическая, порожденная интеллектуализацией средств производства.
В этой статья рассмотрим второй сценарий.
Гносеологическая катастрофа (эпистемологическая), порожденная искусственным интеллектом.
Эта катастрофа может развиваться по трем основным направлениям: создание вала неструктурированной и неранжированной информации,
утеря классических когнитивных функций рядовым человеком,
разрушение этической основы цивилизации.
Направления перечислены в порядке возрастания опасности и убывания вероятности.
Возвращаясь к определению термина «Artificial Intelligence» и разнице между «Intelligence» и «Intellect», отметим, что широкая публика воспринимает термин AI все же ближе к русскому термину «интеллект». Слово же «Intellect» и на русском, и на английском языке описывает то, что принято называть сознанием, то есть естественной и неотъемлемой способностью человека разумного осмысливать некие абстрактные понятия – этику, мораль, справедливость, любовь. Именно такие способности поспешили вложить фантасты 50-х годов XX-го века в модный тогда термин «электронный мозг», которыми комплектовались вымышленные роботы. А согласно размышлениям фантастов, все роботы обладали зачатками какой-то собственной морали и собственными целями, которые должны были быть ограничены «тремя законами роботехники» Айзека Азимова. И этот феномен тоже требует собственного определения, которое расширяет функциональность и суть Artificial Intelligence до понятия «Искусственное сознание».
Искусственное сознание (Artificial Consciousness, AC) – алгоритм, способный оценить свою самость, способный самостоятельно создавать собственные морально-этические личностные конструкты (ограничения, правила) на основе анализа его жизненного пространства и действовать в рамках построенных конструктов (ограничений, правил).
Впервые это определение я дал здесь: http://digital-economy.ru/images/easyblog_articles/529/DE-2018-03-04.pdf
Таким образом, ключевым отличием искусственного сознания от узкоутилитарного технологического искусственного интеллекта – является способность ставить перед собой Цель. То есть, не просто точку в пространстве-времени-ресурсах, которую надо достигнуть, но Цель, как нечто метафизическое – личное обогащение, мировое господство, познание Вселенной и Бога.
Развитие техногенной цивилизации приводит к созданию человеком нового искусственного субъекта, который, подобно своему создателю, обретает способность ставить перед собой цели и достигать их с помощью методов, недоступных пониманию человека. Этот субъект наделён сознанием, позволяющим ему осознать собственную индивидуальность, способностью осознавать свою самость (осознает собственные границы и выделяет себя из окружающего мира), способностью к кооперации с другими сущностями для достижения собственных целей, способностью взаимодействовать с окружающим миром. Способность к конкуренции за критические ресурсы делает такого субъекта потенциальным соперником человеческого мышления, причём всё говорит о том, что он превзойдёт своих создателей в интеллектуальной мощи. Тогда сразу же возникают онтологические вопросы – а не станет ли создаваемый объект равным создателю-субъекту в области моральной и этической? Имеем ли мы право порождать и уничтожать эти объекты, просто выдернув вилку из розетки?
Разница в понимании «Artificial Intelligence» и «Artificial Consciousness», вскрывает фундаментальную ошибку в постановке задачи тестирования искусственного интеллекта по Тьюрингу. Тест Тьюринга предназначен не для индикации алгоритмов «искусственного интеллекта», понимаемых как некие сложные адаптивные вычислительные приемы, а для индикации именно «искусственного сознания». Ошибка заключается в том, что согласно теории информации, нечто только тогда станет информацией, если есть приемник информации, а источником информации может быть любой объект или проявление Вселенной. Следовательно, качество оценки AI по Тьюрингу определяется не источником информации (исследуемым алгоритмом), а приемником информации – человеком-исследователем.
Алгоритмы генеративного искусственного интеллекта уже сегодня выдают тексты и изображения, которые даже специалисты вряд ли отличат от созданных человеком-художником. И здесь начинает проявляться первая гносеологическая опасность – AI может за секунду создать столько текстов и картинок, осознать и дать оценку которым человечество будет не в состоянии никогда. Следовательно, эти бессмысленные интеллектуальные объекты будут влиты в общие базы данных, библиотеки и картинные галереи на правах созданных людьми осмысленных объектов. Следующее поколение генеративного AI будет использовать уже эти образцы в качестве базы для обучения, а поскольку этих искусственных неосмысленных образцов будет в тысячи раз больше, чем естественных текстов и в миллионы раз больше, чем истинных шедевров, то в скором времени человечество захлебнется в вале построенного по классическим канонам литературы, но бессмысленного и внутренне унылого Pulp Fiction. То есть, на самом деле, генеративный AI работает как известный в математике алгоритм скользящего среднего – постепенно сглаживает всплески гениальности до простой прямой линии бездарности.
Вал усредненной, неструктурированной и неранжированной человеческим гением информации, породит следующую проблему – рядовой человек не будет иметь ярких интеллектуальных и этически выверенных маяков, на которые он бы мог равняться в повседневной жизни и личном творчестве. Мучительный творческий акт гения будет просто похоронен кучей мусорных произведений искусства, в том числе за счет экономической составляющей – на что будет жить художник, годами оттачивающий своё искусство и годами же вымучивающий из глубины души истинный шедевр? Не будет шедевров, не будет маяков, не будет развития искусства, изобретательства, технологий. В конце концов, все морфологические ящики Фрица Цвикки всех областей человеческой деятельности будут заполнены всевозможными комбинациями, оценить разумность которых просто никто не сможет и не сможет выбрать действительно нужную комбинацию. А следом, никто уже не сможет создать новую морфологическую матрицу, которую бы бодро заполнил AI множеством комбинаций действительно нужных человечеству технических или культурных сущностей.
Немного поясню про морфологические матрицы, ящики Цвикки, решетки Дирихле и прочую комбинаторику. Морфологичесий ящик - формальный «механический» метод, предложен астрофизиком Ф. Цвикки для классификации галактик по внешнему виду. Метод позволяет получить все возможные комбинации объектов нескольких множеств. Яркий бытовой пример – расписание уборки подъезда: по горизонтали даты уборки, по вертикали – ответственные, по диагонали – осмысленная комбинация «дата-ответственный», все остальные ячейки матрицы не имеют смысла в данном случае. И заполнены информационным мусором. Нам нужны только диагональные значения в данном примере.
Поскольку AI это в своем роде "механизм", то и механистические принципы генерации генерируют в основном мусор. Огромное количество сгенерированных AI мусорных объектов будет постепенно заполнять все возможные информационные хранилища, погребая под слоем искусственных объектов результаты осмысленного труда человека. Любая чисто техническая катастрофа или сбой систем хранения информации (которая случится неизбежно и неумолимо) приведёт к тому, что уникальная «естественная» информация невозвратно погибнет, просто по тому, что с точки зрения теории вероятности легче будет восстановить или воссоздать заново искусственные объекты за счет их многочисленности. Эта ситуация знакома многим, кто терял или иным образом утрачивал собственные носители информации – старые файлы и уникальные семейные фотографии утрачивались, а на резервных носителях удавалось найти далеко не всю важную информацию, а вот различный информационный мусор легко был доступен.
На этом фоне совсем мелкой выглядит проблема утраты когнитивных функций по принятию любых решений – от тактических, до стратегических – AI сделает это просто быстрее, но отнюдь не значит, что более оптимально и правильно. Уже сейчас большинство людей с трудом производят в уме простейшие арифметические операции: все пользуются калькуляторами. А уж об извлечении корней или вычислении косинусов на бумаге просто не идет речи – никто не вспомнит алгоритм этого действия. И если алгоритм работы калькулятора будет неверным, то полученные неверные результаты, во-первых, никогда не будут проверены, а во-вторых, станут труднообнаруживаемой основой для ряда других ошибок. Вспомните, когда последний раз вы проверяли расчеты одного калькулятора на другом калькуляторе? Думаю, что до сегодняшнего момента это просто не приходило вам в голову. А ведь такая проблема (ошибка Pentium FDIV) была выявлена в 1994 году случайно, практически через год после начала активной эксплуатации процессоров Pentium фирмы Intel: при делении чисел с плавающей запятой команда FDIV процессора для некоторых комбинаций чисел выдавала ошибочный результат.
Постулат безошибочной работы вычислительной машины, а затем и AI приводит к тому, что человек принимает результат работы AI за истину и использует непроверяемые результаты как основную мотивацию собственных действий. Студенты сейчас формируют реферативные работы не на основе проработки большого объема информации, не на основе собственной оценки её нужности путем трудоемкого соотнесения собственноручно полученных фрагментов текстов с некоей целью исследования, получая при этом навык разумной фильтрации фактов и явлений, а на основе создания краткого запроса к AI. Причем запрос этот они не формируют сами, а получают в качестве задания от преподавателей. Что дает такой навык студенту? Навык осознания многообразия мира? Выстраивания в мозгу собственных уникальных и, возможно, гениальных озарений? Накопление фактов и знаний? Нет – только навык составления запроса к текущей реализации AI. Следующим этапом станет уже создание самих заданий не усилиями разума преподавателя, а путем обращения преподавателей к AI. В итоге, мы снова получим скользящее среднее – вместо биения живого сердца прямую линию асистолии.
Так, постепенно подменяя собой когнитивную функцию принятия решений из-за отсутствия, во-первых, маяков, во-вторых, из-за утраты человеком постоянно тренируемой необходимости анализировать и выбирать, AI полностью переформатирует вкусы человека, мораль и этику в дальнейшем. Ведь именно на основе сознанного трудного и мучительного выбора среди множества соблазнов и ограничений, на основе ярких ценностей и строится мораль отдельного человека и этика общества в целом. И здесь не идет речь о заговоре некоего мирового правительства, которое по своему злоумышлению будет «подкручивать» настройки AI и подменять цели человечества на меркантильные собственные. Хотя и эта возможность не только не исключена, но и вовсю применяется в алгоритмах формирования лент новостей и интересов социальных сетей и видеохостингов. Нет, это всё будет происходить с математической точностью и неизбежностью – такова суть работы алгоритмов AI.
Разрушение этической основы цивилизации также будет идти и через машинное тьюторство в образовательных учреждениях. Главный риск внедрения образовательных роботов связан с возможностью полной индивидуализации и инкапсуляции учебного процесса. Если ребёнок будет взаимодействовать только с роботом, а не с коллективом сверстников, это может привести к утрате важных социальных навыков. Кроме того, остаётся открытым вопрос о том, каким контентом наполнена такая система и насколько она безопасна для ребёнка, поскольку контроль над этим процессом со стороны учителей и родителей значительно затрудняется. Основная цель человеческого обучения состоит не столько в получении индивидуальных знаний, сколько в развитии способности к коммуникациям и познанию в рамках коллектива. Потенциальное отсутствие взаимодействия с реальными людьми в образовательном процессе может негативно сказаться на формировании этих ключевых компетенций.
Про проблему машинного тьюторства я писал здесь: https://dzen.ru/a/Z5dLzBR0Y2N-yJbg
Продолжение следует...