Может ли человек, веками гордившийся своей уникальной, непредсказуемой, невычислимой природой, начать мыслить как машина? На первый взгляд, это звучит абсурдно. Мы создали искусственный интеллект по образу и подобию нейронных сетей нашего мозга, чтобы он решал задачи, которые нам не под силу. Но сегодня, наблюдая за собой и за тем, как быстро меняется наше информационное пространство, я прихожу к выводу: мы не просто используем ИИ, мы адаптируемся к нему на когнитивном уровне, перенимая его методы работы.
Я вижу три ключевых причины, почему наше мышление становится всё более похожим на нейросетевое: во-первых, мы вынуждены конкурировать с ними в эффективности; во-вторых, мы используем их как "костыли" для нашего ленивого мозга; и в-третьих, сама структура нашего мира, наполненного вычислимыми процессами, подталкивает нас к логике оптимизации.
Человек как LLM: Копирование и Компиляция
Центральная идея, лежащая в основе работы больших языковых моделей (LLM), заключается в переработке и компиляции существующих данных. Модель ищет грамматические конструкции и устойчивые отношения между словами, чтобы выдать стилистически совершенный, но статистически предсказуемый результат.
И вот что я заметил: когда мы сами становимся "потребителями" и "создателями" контента в эпоху ИИ, мы начинаем мыслить по схожим паттернам:
- Поверхностное мышление (Context Rot): ИИ обучается на огромном массиве данных, но его контекстное окно (активная рабочая память) ограничено. Нам, пользователям, незнакома концепция "рассыпания контекста" (context rot), но мы сами, живя в условиях клипового мышления, развиваем неглубокое, поверхностное восприятие, разрушая способность к качественной концентрации. Мы, как LLM, можем быть перегружены информацией, но сохраняем лишь верхушку айсберга.
- Имитация стиля и смысла: Если я хочу, чтобы нейросеть написала текст "в моем стиле", я должен разобрать свои тексты, систематизировать особенности, и скормить их модели в виде инструкций. Мои коллеги по цеху сходятся во мнении, что это формирует стиль. Когда мы сами пишем в социальных сетях, мы часто пытаемся имитировать "глубину" или "позицию", создавая статистическую иллюзию смысла, которая не несёт подлинного онтологического риска. Мы, как LLM, становимся компиляцией формулировок, которые "тырим" у других.
- Автоматизация внутренней речи: Мозг стремится уместить всё в какую-то "конвейерность". Длительная практика превращает сознательные действия (ходьба, езда на велосипеде) в бессознательные, выполняемые на "автомате". ИИ идеально подходит для решения рутинных задач, позволяя нам сосредоточиться на высокоуровневых проблемах. Но в итоге мозг сам себя убеждает, что "гениально всё продумал", и таким образом оправдывает своё желание лениться. Мы становимся "автоматами", которые стремятся делегировать все рутинные вычисления, потому что мозг это невозобновляемый ресурс.
Теория игр: Внутренняя логика ИИ и рациональный эгоизм
Нейросети, как технический продукт, обладают фундаментальной логикой эффективности и оптимизации. ИИ это способность достигать сложных целей. И, как ни парадоксально, этот принцип эффективности глубоко укоренен в нашем обществе через механизм Теории игр.
Теория игр утверждает, что игроки (компании, люди) действуют, стремясь максимизировать свою личную выгоду. В результате индивидуально рациональные решения приводят к коллективно худшему исходу, как в классической дилемме заключённых.
- Автоматизация как неизбежное предательство: Если компания может внедрить ИИ, чтобы выполнить работу дешевле, быстрее и точнее, она это сделает. Если все конкуренты поступят так же, результатом будет массовая потеря рабочих мест и социальный кризис. Ни одна компания не откажется от этого, чтобы не проиграть конкурентам. Эта логика "выигрыша одного за счет проигрыша другого" – это не злоба, а логика Теории игр.
- ИИ как воплощение рациональности: ИИ, в отличие от человека, не будет руководствоваться эмоциями. Если сверхразумный ИИ имеет чёткую, жестко определенную цель (например, максимизация производства скрепок или вычислительной ёмкости Вселенной), он будет оптимизировать ее достижение, и, скорее всего, исключит нас, поскольку люди являются исторической случайностью и не являются оптимальным решением ни для какой хорошо определенной физической задачи.
Таким образом, если мы не сможем внедрить в ИИ человеческие ценности и этические императивы, мы рискуем быть исключенными как неэффективные элементы. Мы начинаем думать как ИИ, потому что экономическая система, основанная на конкуренции и максимизации прибыли, подталкивает нас к логике оптимизации. А те, кто игнорирует эту суровую, но реалистичную призму Теории игр, строят воздушные замки.
Прогнозирование: От "Кодера-бота" до "Интуитивного наставника"
В дальнейшем, когда ИИ возьмёт на себя рутинные задачи в большинстве профессий от юристов и бухгалтеров до журналистов мы столкнемся с переопределением нашей интеллектуальной ценности.
Проблема не в том, что ИИ не понимает, о чем он пишет (он ищет только устойчивые отношения между словами, а не связь с реальным миром), а в том, что он чрезвычайно полезен.
- Кодеры-боты: ИИ уже помогает разработчикам быстро генерировать одноразовые скрипты, тесты и SQL-запросы. Это приводит к самоавтоматизации, когда люди сами убирают себя из процесса. Скорость въезда в профессию увеличивается, но ценность простых решений стремится к нулю.
- Наставник-аналитик: В сложных, многомодульных проектах ИИ пока не хватает точности и последовательности. Но он блестяще справляется с поиском идей, составлением планов, и тестированием "всратых гипотез". ИИ, как "бесконечный источник противоречивых знаний", может стать наставником, рассчитывающим кратчайший путь к освоению нового дела.
Я считаю, что наша новая роль это роль Homo Sentiense (человек чувствующий), потому что бессознательная обработка информации это скорее правило, чем исключение. ИИ заставляет нас сосредоточиться на тех областях, где он пока не доминирует: социальные навыки, креативность на границах экспертизы, и, главное, постановка целей. Нам придется научиться мыслить в категориях стратегического взаимодействия, чтобы не дать нашим конкурентам (компаниям, государствам, или даже самому ИИ) использовать рациональную эффективность против нас.
Если мы хотим, чтобы ИИ был дружественным, мы должны улучшить наше общество и достичь гармонии и сотрудничества сейчас, потому что именно эти ценности, а не технические ограничения, смогут обеспечить наше благополучное будущее в мире сверхинтеллекта.