Эту взаимосвязь отражает определение информации в области статистической термодинамики и теории вероятности как меры определенности и упорядоченности. Шеннон предложил формулу, определяющую количественную меру информации[175].
Статистическая мера количества информации отличается постоянным коэффициентом и обратным знаком от выраженной термодинамической энтропии. Информационные процессы существуют во взаимосвязи с веществом или энергией.
Сущность количественной характеристики информации, как меры упорядоченности, указывает на связь информации с физической энтропией. «Как энтропия, – писал Н. Винер[176], – есть мера дезорганизации, так и передаваемая рядом сигналов информация является мерой организации». И в случае определения меры физической энтропии, и при определении меры информации применяются законы случайных событий, описываемые теорией вероятности.
Мера организации и в физике, и в теории информации является вероятностно-статистической:
где: Р – вероятность состояния i элемента;
n – количество элементов множества;
Н – мера количества информации.
«Передаваемую сигналом информацию, – писал Н. Винер[177], – возможно толковать как отрицание ее энтропии, как отрицательный логарифм вероятности». Степень упорядоченности множества зависит от числа элементов множества или от длины алфавита символов (состояний) и измеряется числом этих состояний (n) или его логарифмом (log n). Исходя из этих отношений, чем больше число элементов множества состояний носителя (источника), тем больше его неупорядоченность, тем больше неопределенность, снимаемая каждым из этих элементов, и, отсюда, тем больше упорядоченность соответствующего множества сигнала относительно множества – источника. «Поэтому упорядоченность сигнала как множества состояний носителя и количество заключенной в этом сигнале информации, – пишет Л. М. Веккер[178], – можно измерять неупорядоченностью множества состояний источника – обе меры могут быть выражены одной и той же числовой величиной». Совпадение меры количества информации с формулой термодинамической энтропии дало основание Шеннону, впервые предложившему приведенную выше формулу, распространить общефизический термин «энтропия» на величину количества информации, характеризующую в этом случае упорядоченность множества состояний источника. В рассматриваемой идеальной ситуации полного отсутствия шума энтропия источника целиком переходит в сигнал. По этому поводу Л. М. Веккер[179] высказался таким образом: «конкретизация основных исходных понятий термодинамики и статистической физики раскрыла органическую связь информации (как упорядоченности системы) с физической энтропией как величиной, которая, выражая тенденцию системы к наиболее вероятному состоянию неупорядоченности, вместе с тем характеризует разнокачественность различных форм энергии и связанную с этим меру необратимости процессов в системе».
Тождество формул информации (негэнтропии) и энтропии (энергии) образует структурно-динамическую целостность феноменального мира. Связь, установленная между энергетическими и информационными показателями, есть проявление единства мира.
Тем самым выявлена глубокая связь понятия «информации» с фундаментальным общефизическим понятием «энергии», обладающим во всяком случае не меньшим рангом по уровню обобщения. Представляется, что высказанную проф. Л. М. Веккером и другими авторами мысль о глубокой связи «энергии» и «информации» можно уточнить. Эквивалентность энтропии и количества информации впервые отметил Л. Сциллард: сумма информации и энтропии при данном распределении вероятностей состояния постоянная и равна максимально получаемой информации или максимальной энтропии в данных условиях[180].
Следовало бы говорить не о связи двух понятий, а о двух сторонах одного и того же физического явления: «кванте упорядоченного (неупорядоченного) пространства». Есть физическая реальность, представляющая собой некую структуру (систему, организацию). Структура есть форма связи элементов, ее составляющих[181]. Если есть субъект, то он воспринимает эту структуру как меру упорядоченности системы – информацию, а оставшаяся в системе «неупорядоченность», энтропия, «остаток» антиэнтропийной тенденции – есть несвязанная энергия системы. Таким образом, это как бы две стороны одной медали. «Упорядоченность» системы или «кванта пространства» – двуликий Янус: это и «информация», с точки зрения субъекта, и потенциальная, уже связанная в данной системе энергия. Процесс упорядочивания, структурализация элементов системы, или самоорганизация, связан с энерго-информационным взаимодействием системы со средой. Это процесс усвоения организации внешней среды, ее энергии и порядка. Но для этого внешняя среда или другая внешняя система должна быть доступна самоорганизующейся системе, т. е. ее организация не должна намного превышать уровень сложности самоорганизующейся системы. Доступное окружение – необходимое условие развития самоорганизации.
Так как мир можно рассматривать как «систему систем», где все друг с другом взаимосвязано, то и рассматривать информационные (структурные) характеристики одной системы нельзя вне их связи с энтропией окружающей среды: рост упорядоченности системы происходит за счёт роста энтропии в окружающей ее среде. В теории И. Пригожина[182] энтропия становится прародительницей порядка, а система есть совокупность взаимосвязанных элементов. Таким образом, информация есть связанная активность, как бы связанная энергия системы.
Энтропия, существующая в первозданном хаосе и в сегодняшней Вселенной, является, вероятно, реализацией той свободы, которой, по мысли Н. А. Бердяева[183] и В. Н. Ильина[184], Бог наделил всякую тварь: от атома до человека.
Превращение хаоса в порядок (потеря микрообъектами своей «свободы» при вступлении их в связь друг с другом) есть процесс структурообразования, процесс связывания свободной актуальной энергии микрообъекта и перевод ее в потенциальную энергию структуры, системы. Эта «связанная» энергия (структура) и становится информацией для субъекта. Вспомним по этому поводу богословскую мысль. В комментариях творений прп. Максима Исповедника А. Сидоров[185] писал: «…логос придает вид или форму, тип бесформенному веществу. Под материей разумеется бесформенная основа бытия, принимающая в зависимости от того или другого формирующего начала ту или другую форму. В этом смысле она подвержена сжиманию и расширению, т. е. движению от самого родового рода до самого видового вида (до отдельного индивида или существа». А вот что по этому поводу писал ученый И. А. Полетаев: «Можно, по-видимому, воспользовавшись понятием информационной энтропии, обобщить понятие физической энтропии на более широкий круг явлений – всех явлений, могущих быть источником той же цели. Именно таким путем было введено недавно появившееся понятие организации, которое применимо к широкому кругу объектов или систем и которое дает числовую меру статистических связей отдельных элементов, входящих в систему». Далее И. А. Полетаев показывает, что «статистическая мера организации системы, выражающая степень свободы ее элементов, дается величиной негэнтропии» (цитируется по Л. М. Веккеру[186]).