Информация — одно из самых употребляемых, но и самых запутанных понятий в науке, философии и повседневной жизни. Один и тот же термин может означать совершенно разные вещи: сигнал в телефоне, знание в голове, генетический код в клетке или даже «тайную силу», управляющую Вселенной. Попытаемся разобраться — что же на самом деле означает «информация», и может ли она помочь понять природу сознания.
О какой информации мы говорим?
В повседневной жизни мы часто используем понятие «информация», вкладывая в него разный смысл в зависимости от контекста. Я вполне согласен с мнением авторитетного учёного (которого некоторые, возможно, помнят по научно-популярной программе Гордона на 1м канале ТВ) Д.С.Чернавского : «Термин информация сейчас употребляется весьма часто и в разных смыслах, а ещё чаще – всуе, т.е. без всякого смысла».
Чернавский приводит, для примера, больше двадцати различных определений информации, предложенных в разных областях. Например, определения, характерные для гуманитарных наук:
- Информация есть знания, переданные кем-то другим или приобретенные путём собственного исследования или изучения
- Информация – это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств (Винер,1983)
В технических дисциплинах, например, теории коммуникаций, можно встретить определения типа:
- В проблемах передачи «информацией» называется всякое сообщение или передача сведений о чём-либо, что не было заранее известно.
- Сведения, воспринимаемые человеком и (или) специальными устройствами как отражение фактов материального или духовного мира в процессе коммуникации (ГОСТ 7.0-99)
Философы предпочитают более общую трактовку, включающую понятие отражение (которое, в свою очередь, трактуется как фундаментальное свойство материи):
- Информация есть отражение в сознании людей объективных причинно-следственных связей в окружающем нас реальном мире
Свои определения имеют биологи(+биоинформатики), математики (+программисты) и т.д. и т.п. В связи с этим много говорится об омонимичности понятия «информация», т.е. фактического отсутствия точного значения этого понятия вне определённого контекста: если какое-либо понятие имеет много разных смыслов, то оно не имеет никакого смысла.
Можно выделить три основных подхода (возможны и другие), которые применяются к определению понятия «информация»:
- антропоцентрический (то, что может быть преобразовано в знания; имеет смысл, значение для отдельного человека и общества),
- техноцентрический (отождествление информации с данными; теория связи (коммуникации), кодирование и обработка сигналов; кибернетические системы и устройства)
- недетерминированный (принятие понятия как фундаментального с отказом от определения. Информация ставится в один ряд с такими понятиями, как материя, энергия, пространство, время)
Меня, главным образом, интересует ответ на вопрос: "Является ли информация прерогативой живой природы и вычислительных средств, созданных человеком, или же она есть атрибут всех материальных объектов и присуща всей Природе и Вселенной?".
Техническая информация
При техническом подходе понятие «информация» пытаются использовать для оценки сложности, разнообразия или упорядоченности самых разных систем и объектов. Такая оценка позволила бы проводить сравнение систем и, возможно, предсказывать их эволюцию. Эта исследовательская программа была начата в математической теории информации (теории связи К.Шеннона).
Клод Шеннон исследовал инженерную задачу передачи (кодированных) сообщений в зашумлённых каналах связи и, фактически, использовал информацию как синоним термина «сигнал». Он ввёл в рассмотрение функции информационной энтропии, которая в дальнейшем получила широкое распространение в работах по теории информации - из-за простоты ее вычисления (для бинарных систем).
Термодинамический подход к информации. Энтропия и информация
Теория связи оперирует такими объектами как сигналы, чтобы оперировать более сложными, физическими, объектами, приходится делать некоторые обобщения. Например, вводится представление, что информация "количественно оценивает инструкции, необходимые для получения определённой организации" (Loewenstein, 1998).
По мнению Ловенстейна, «так введённая информация может быть с равным успехом применена к колоде карт, последовательности аминокислот, музыкальной партитуре, цветочным композициям, кластерам клеток или скоплениям звёзд». В такой трактовке, информация как мера упорядоченности, организации, объявляется парной к другой универсальной категории – энтропии.
Понятие «энтропия» введено в физику Р.Клаузиусом в 1865г. (название происходит от древнегреческого «превращать»). Это довольно важная термодинамическая величина, интересной особенностью которой является её сохранение, подобно энергии, в процессах обратимых, и возрастание – в процессах необратимых. Энтропия возрастает до своего максимального значения, отвечающего равновесному состоянию системы.
В термодинамике информация I, по замыслу, является мерой сложности и упорядоченности системы и противопоставляется энтропии S, которая является мерой хаоса. В рамках термодинамического подхода в теории информации (Н.Винер,1983), считается, что сумма этих двух величин неизменна, т.е. увеличение информации о системе неизбежно ведет к уменьшению ее энтропии:
I + S = const
Это выражение довольно часто упоминают и, иногда, (как например, в работе (Loewenstein, 1998) ему приписывают статус фундаментального закона природы (наряду с законами сохранения) и строят на его основе целые теории.
Смысл этих теорий сводится к тому, что с момента большого взрыва материя идёт по пути усложнения организации, в ходе которой «идёт обмен информацией между разными системами, в том числе между биологическими и небиологическими, и этот обмен… поддерживает всю жизнь» (Loewenstein, 1998). На многих страницах Ловенстейн описывает как элементарные частицы слипались в ядра, те, позднее, давали жизнь атомам, молекулам, кластерам, клеткам и т.д. и т.п. А началось всё с «изначального зерна» в момент Большого взрыва. Со временем, «информационный поток» изливается на Землю и, с момента зарождения жизни, «потоки биологической информации» начинают циркулировать между «сферой генотипа» и «сферой фенотипа» с помощью «переносчика информации» - молекулы РНК. Основной посыл этих спекуляций - информация характеризует процесс самоорганизации молекулярных систем живых существ, процесс возникновения порядка из беспорядка.
Как видно, подобные теории полны красочных метафор, которым не должно быть места в строгой науке. Фактически, для широкого спектра реальных задач приведённое выражение баланса между информацией и энтропией не верно (при использовании вне узких пределов применимости).
Что не так с термодинамическим подходом к информации?
Начнём с того, что практическая польза определения количества «физической» информации по Больцману-Шэннону применительно к биологическим объектам весьма сомнительна – учесть все возможные состояния реальных биологических систем (а, значит, и определить количество «содержащейся» в них информации) просто невозможно. Оценки по порядку величины, сделанные на основе «информационного варианта» формулы Больцмана в работе (Блюменфельд, 1996), приводят к парадоксальным результатам. Так, количество информации, содержащейся в многоклеточном организме (тело человека с 1013 клеток) составляет примерно 4х10(14) бит, что соответствует ∆S≈10(-9) кал/град. В то время как при испарении одного грамма воды энтропия повышается примерно на 1 кал/град. Если величину информации I считать мерой сложности, то капля воды окажется неизмеримо сложнее человеческого организма! Количество молекул биополимеров (белков, нуклеиновых кислот, полиуглеводов и др.) в одной клетке составляет в среднем 10(8). Если допустить, что все молекулы различны, а их относительное расположение уникально, то количество информации, необходимой для построения одной клетки из готовых биополимеров, I≈2.6х10(9) бит, а для всех клеток в организме человека 2,6*10(22) бит, что соответствует понижению энтропии всего, примерно, на 6*10-2 кал/град.
Эти оценки показывают, что возникновение и усложнение биологической организации происходит практически при незначительном уменьшении энтропии. Блюменфельд пишет, что «интуитивно чувствуется, что биоструктуры обладают особой упорядоченностью, измерять которую в энтропийных единицах, конечно, можно, но многого для понимания особенностей живой материи при этом не стоит ожидать. В основе ощущения особой упорядоченности биологических структур лежит то обстоятельство, что она имеет смысл».
Чернавский проводит чёткое разделение между макроинформацией (как запомненного выбора одного варианта из нескольких возможных и равноправных (определение Г.Кастлера)) и микроинформацией- незапомненного выбора одного варианта из нескольких возможных, например, выбор определённого набора координат и скоростей молекул идеального газа в данный момент (сохраняется на интервале пикосекунд). С физической энтропией связана именно микроинформация, в то время как макроинформация с ней, вообще говоря, не связана.
Чернавский считает: «В физике неживой природы эти понятия (информация и ценная информация) практически не используются, поскольку они там не нужны»
Есть ли вообще смысл рассматривать информацию в качестве самостоятельного научного (не бытового) понятия? Остаётся два варианта – 1) рассмотрение информации как первичного фундаментального понятия (наряду с материей и энергией); 2) трактовка информации как исключительного атрибута высокоорганизованных форм жизни, в том числе рассмотрение сознания как информационного феномена и построение информационных моделей сознания. Рассмотрим подробнее оба варианта.
Информация - фундаментальное свойство Вселенной?
Некоторые физики (Wheeler, Fredkin, Zurek, Matzke) высказывают предположения, что информация является чем-то фундаментальным для физики Вселенной, и даже, что физические свойства и законы могут быть производными от информационных свойств и законов.
Дж.Уилер выдвинул тезис - It from bit (Всё из бита).
Так, по мысли Уилера, всё сущее — каждая частица, каждое силовое поле, даже сам пространственно-временной континуум — получает свою функцию, свой смысл и, в конечном счёте, самое своё существование — даже если в каких-то ситуациях не напрямую — из ответов, извлекаемых нами с помощью физических приборов, на вопросы, предполагающие ответ «да» или «нет», из бинарных альтернатив, из битов. «Всё из бита» символизирует идею, что всякий предмет и событие физического мира имеет в своей основе — в большинстве случаев в весьма глубокой основе — нематериальный источник и объяснение; то, что мы называем реальностью, вырастает в конечном счёте из постановки «да-или-нет»-вопросов и регистрации ответов на них при помощи аппаратуры; коротко говоря, что все физические сущности в своей основе являются информационно-теоретическими и что Вселенная требует нашего участия
По Уилеру, объекты следует рассматривать как вторичные, как носители абстрактной и фундаментальной сущности — информации, вещество же и излучение — материальные проявления чего-то более фундаментального. В таком случае информация (а именно, где частица находится, каков ее спин, положителен или отрицателен ее заряд и т.д.) образует целостное ядро самой физической реальности, а фундаментальные физические состояния в физических теориях, фактически, индивидуализируются как информационные состояния.
Обсуждая такой подход, Чалмерс констатирует (Чалмерс, 2013), что если речь идёт о физике (а не о том, «как оно есть на самом деле»), то состояние мира могло бы и исчерпываться информационным описанием, а мир можно было считать миром чистой информации. Каждому фундаментальному параметру такого мира соответствует информационное пространство, и при допущении физикой реализации этих параметров реализуется и информационное состояние соответствующего пространства. Пока эти информационные состояния соотносятся друг с другом надлежащим (с точки зрения физики) образом, всё будет, как должно.
Мне такой подход не близок - это, скорее, научная абстракция, игра ума, не имеющая практического смысла. Я считаю, что в неживой природе информации как таковой нет — только физические взаимодействия. Поэтому, единственной разумной альтернативой для использования понятия "информация" является живая природа.
Информация как атрибут живой природы
За основу я возьму работы авторитетного эксперта в области теории информации Хуана Рёдерера (Juan G. Roederer), где эта позиция представлена наиболее аргументированно. Он предлагает ввести понятие «информация» в виде, никак не связанном с созданными человеком техническими системами и соответствующими им алгоритмами и семантикой, а также без использования каких-либо математических формул.
Рёдерер вводит в рассмотрение два вида взаимодействий: физические взаимодействия, опосредованные силой/ силовым полем (force-field driven interactions) и, собственно, основанные-на-информации взаимодействия (information-based interactions).
Разницу между ними он иллюстрирует двумя простыми примерами. Спутники, вращающиеся под действием гравитационного поля по круговым орбитам вокруг массивной центральной планеты – физическое взаимодействие. Мотылёк, порхающий по кругу вокруг фонаря – основанное-на-информации взаимодействие, включающее в себя цепь: излучение света→распознавание образа→активация мускулов→полёт по кругу. В этом случае нет прямой (энергетической) связи между излучением фонаря и энергией, требуемой для физиологических процессов в насекомом.
Автор допускает, что для многих, в особенности для физиков, отсутствие информации в неживой природе может показаться странным. Физики, как упоминалось выше, в рамках статистической термодинамики рассуждают о том, что потеря информации (о микроскопическом состоянии данной системы) ведёт к росту её энтропии, и наоборот. Другой пример - знаменитый квантово-механический эксперимент о прохождении электрона через двойную щель, в котором электрон, проходя через открытую щель, вроде бы, «обладает информацией» о том, открыта или нет другая щель.
Аргументируя свою позицию, Рёдерер утверждает, что, что физика работает с информацией, извлечённой из окружающей среды в процессе измерения, и строит математический аппарат, описывающий идеализированные модели реальности. С необходимостью, измерение включает некоторый прибор и два типа взаимодействий – физическое и основанное-на информации, причём последнее вовлекает чувственный и познавательный аппарат человеческого существа. Для автора очевидно, что информация как таковая возникает в физике благодаря развитым теоретическим представлениям, так как измерения и эксперименты есть процессы «прикладываемые» к природе с заранее разработанной целью, а не потому, что информация существует и управляет физическим миром «до того, как мы на него посмотрим».
Ещё раз полемизируя с утверждениями типа: «процесс космической эволюции сам по себе генерирует информацию», автор призывает отдавать себе отчёт, что это информация для нас, наблюдателей, здесь и сейчас – она никак не управляет вовлечёнными естественными физическими процессами. Напротив, в биологической системе информация выполняет активную роль в её организации, поведении и размножении, информация существует и действует вне зависимости от любого внешнего наблюдателя.
Мне близка такая трактовка информации. Она, в отличие от рассмотренных ранее (исключая, разве что, прикладную трактовку по Шэннону), логически обоснована, согласуется с житейской практикой и оправдывает использование самого термина «информация».
Обсуждая информацию, мы с неизбежностью должны обсудить вопрос о соотношении информации и сознания, и рассмотреть информационные модели сознания. Эта тема, однако, настолько обширная, что требует отдельного рассмотрения, и ей будет посвящена самостоятельная статья.
Основные выводы
1. Практически всегда, говоря об информации, можно найти другое слово/понятие, которое может заменить «информацию» в конкретном контексте, за немногими исключениями.
2. Опять же, за некоторыми исключениями (о них – ниже), все «информационные» теории можно разделить на два класса. В одних, говоря об информации, авторы апеллируют к интуитивно понятному, бытовому смыслу этого понятия – информативный – значит сложный, интересный (новый), (возможно) ценный, содержащий инструкции (данные). Таковы, практически, все технические и термодинамические (энтропийные) подходы к информации. Говоря об информации, имеют в виду данные (например, координаты и импульсы молекул идеального газа), сигналы/сообщения (как у Шеннона), меру сложности (в энтропийных теориях и синергетике). Здесь, на мой взгляд, полезно отказаться от термина «информация» и использовать узкий и чётко определённый в конкретном контексте заменяющий термин. В других случаях, напротив, за информацию пытаются выдать нечто новое, неизвестное и фундаментальное, для чего и подходящего термина ещё не придумано (информационные поля и т.п.).
3. Возможна и иная классификация теорий по тому, как они отвечают на вопрос является ли информация атрибутом исключительно живых систем или же носит универсальный (фундаментальный?) характер. Претензии на фундаментальность не нашли достаточного обоснования (по крайней мере, пока), а использование информации как эквивалента меры сложности в неживой природе, как показал Чернавский, мало содержательно.
4. Остаются биоцентрические и антропоцентрические теории (те исключения, о которых я писал выше) типа «информационного взаимодействия» Рёдерера. Они трактуют информацию как феномен, присущий живым системам. Главным образом, речь идёт об описании взаимодействия человека с окружающей реальностью. В этом контексте информация имеет достаточно конкретный и содержательный смысл.
5. Однако, такие теории не дают, на мой взгляд, каких-то глубоких откровений или неожиданных открытий. Они носят, скорее, описательно-систематизирующий, а не аналитический, объясняющий суть вещей характер.
6. Я сознательно оставил в стороне обсуждение информации как феномена современного этапа развития общества – «информационная среда», «информационные потоки», «информационные войны», «информационные технологии» и т.п. Это совсем другой анализ и другие критерии. В широком контексте все эти актуальные темы лишь часть антропоцентрического подхода к информации. С другой стороны, проблематика "информационного общества", усиливающееся влияние информации на все стороны жизни человека, пожалуй, даже более важна и интересна, чем рассмотренные здесь естественнонаучные трактовки информации.