Литмир - Электронная Библиотека
Содержание  
A
A

– Мы же академики, Тупс, – сказал декан. – Значит, информация должна плыть в свободном течении.

– Именно, – подтвердил профессор современного руносложения. – Неограниченный поток информации – признак прогрессивного общества. Ведь мы живем в век семафора.

– И поток этот явно направляется к нам, – сказал Чудакулли.

– О, разумеется, – произнес декан. – Мы не хотим, чтобы он шел от нас. Мы же говорим о потоке, а не о растекании.

– Так вы хотите отправить сообщение? – сказал Думминг, прежде чем волшебники успели чересчур углубиться в свои рассуждения.

– А нам точно не придется платить? – спросил Чудакулли.

Думминг вздохнул:

– Нет, сэр.

– Превосходно! – сказал аркканцлер. – Можно отправить его в королевство Ланкр, да? Там только одна щелкающая башня. Текст следующий:

Госпоже Эсмеральде Ветровоск. Как поживаете? У меня все хорошо. Тут возникла одна любопытная проблема…

Глава 18

Бит из бытия

Семафор представляет собой пример простой и проверенной временем цифровой системы передачи информации. Он кодирует письма с помощью азбуки положений флагов, света или чего-нибудь еще более простого. В 1795 году Джордж Мюррей изобрел вариант семафора, наиболее приближенный к используемому в Плоском мире – набор из шести открывающихся и закрывающихся заслонок, тем самым составляющих 64 различных «кода», чего более чем достаточно для всех букв алфавита, цифр от 0 до 10 и некоторых «специальных» символов. Система получила дальнейшее развитие, но утратила статус передовой технологии с появлением электрического телеграфа, ознаменовавшим начало эпохи проводов. Семафоры Плоского мира («клики») были гораздо совершеннее: массивные магистральные башни с многочисленными рядами заслонок, в темноте освещаемые фонарями и рассылающие сообщения в двух направлениях по всему материку. Такая «эволюция» технологии вполне похожа на правду: если бы нам не удалось обуздать пар и электричество, мы бы сейчас тоже использовали нечто в этом роде…

Мощность этой системы позволяет передавать даже изображения. Серьезно. Представьте себе картинку в виде сетки размером 64×64, состоящей из маленьких квадратиков, которые могут быть белыми, черными или какого-либо из четырех оттенков серого, а затем прочитайте сетку слева направо и сверху вниз, как книгу. Теперь нужна лишь информация, пара клерков, которые разработают алгоритм сжатия, и человек с неглубокой коробочкой, содержащей 4096 деревянных блоков, каждая сторона которых окрашена в какой-либо из шести цветов – черный, белый или один из четырех оттенков серого. Выкладывание картинки займет у них некоторое время, зато работа клерков обойдется недорого.

В цифровых сообщениях лежит вся суть информационного века, который мы так назвали, будучи убежденными, что знаем гораздо больше всех, кто прозябал в другие века. Плоский мир гордо живет в век семафоров, или век кликов. Но что конкретно мы называем информацией?

Отправляя сообщение, вы, очевидно, должны заплатить – иначе тот, кто будет осуществлять его передачу, будет иметь право выразить вам свое недовольство. Именно это свойство сообщений и взволновало Чудакулли, который никак не мог отвыкнуть от мысли, что академики должны путешествовать бесплатно.

Цена – это лишь одна из мер измерения, но она зависит от сложных рыночных условий. Например, какой она будет, если откроется распродажа? Для науки понятие меры информации – это объем отправляемых сообщений. В человеческом понимании, похоже, сложился универсальный принцип, согласно которому средние или длинные сообщения обходятся дороже, чем короткие. А значит, в глубине людского разума таится глубокое убеждение, что сообщения могут измеряться – они имеют размер, который показывает, какое количество информации оно содержит.

Неужели «информация» и «история» – это одно и то же? Нет. Истории передают информацию, но это, пожалуй, наименее интересное, что о них можно сказать. Бо́льшая часть информации не составляет собой историй. Возьмем для примера телефонный справочник: в нем содержится много информации, он имеет определенную форму, но весьма слаб в повествовании. А для истории важен смысл, и в этом она здорово расходится с понятием информации.

Мы гордимся тем, что живем в информационный век. И это плохо. Если мы когда-нибудь доживем до века смыслового, но сумеем наконец понять, в каком месте сбились с пути.

Информация – это не материальная вещь, а понятие. Однако из-за людской привычки материализовывать понятия ученые воспринимают информацию, будто она и в самом деле реальна. Некоторые физики даже начинают задумываться, не состоит ли наша вселенная из информации?

Как же возникла эта точка зрения и насколько справедливой ее можно считать?

Человечество приобрело способность измерять информацию в 1948 году, когда математик и инженер Клод Шеннон нашел метод определения количества информации, содержащейся в сообщении, – сам он предпочитал термин «сигнал», – передаваемом в виде определенного кода. Под сигналом он подразумевал ряд двоичных чисел («битов», 0 или 1), который сегодня повсеместно используется как в современных компьютерах и устройствах связи, так и в семафоре Мюррея. Кодом Шеннон называл особую процедуру, преобразующую исходный сигнал в нечто иное. Простейший код банально оставляет все «как было», а более сложные применяются для обнаружения или даже коррекции ошибок, допущенных при передаче. В инженерных приложениях коды занимают центральное место, но для наших целей достаточно их опустить, предположив, что сообщения передаются в открытом виде.

Мера информации Шеннона численно выражает степень, на которую снижается неопределенность относительно бит, составляющих сигнал, в результате получения сообщения. Вот простейший пример, в котором сообщение представляет собой ряд нулей и единиц, и каждый из них одинаково вероятен, а количество информации в сообщении совершенно определено и равняется общему количеству двоичных чисел. Каждое число, получаемое нами, снижает нашу неопределенность относительно значения конкретно этого числа (это 0 или 1?) до определенности (скажем, 1), но ничего не говорит нам об остальных числах, то есть мы получаем только один бит информации. Проделайте то же самое тысячу раз и получите тысячу бит информации. Ничего сложного.

Предположим, нас сейчас интересует не смысл сигнала, а его побитное наполнение – такое восприятие близко инженерам связи. Итак, сообщение 111111111111111 содержит 15 бит информации, равно как и 111001101101011. Но понятие Шеннона об информации – не единственное. Позднее Грегори Хайтин отметил, что содержание шаблонов в сигнале может быть выражено количественно. Для этого нужно смотреть на размер не сообщения, а компьютерной программы, или алгоритма, который она может сгенерировать. Например, первое из вышеуказанных сообщений представляет алгоритм «каждое число равно 1». Но второе сообщение нельзя охарактеризовать столь же просто – его можно лишь побитно переписать. Таким образом, эти два сообщения имеют одинаковое содержание согласно Шеннону, но с точки зрения Хайтина второе сообщение содержит гораздо более «алгоритмическую информацию», чем первое.

Иными словами, понятие Хайтина рассматривает степень, до которой сообщение способно «сжиматься». Если короткая программа сгенерирует длинное сообщение, то мы можем передать программу вместо сообщения, сохранив время и деньги. А программа при этом «сжимает» сообщение. Когда компьютер получает большой графический файл – например, фотографию – и превращает ее в меньший, в формате JPEG, он использует стандартный алгоритм для сжатия информации, содержащейся в исходном файле. Это возможно благодаря тому, что в фотографиях содержится множество шаблонов: к примеру, повторяющиеся голубые пиксели, из которых состоит небо. Чем менее сжимаемым является сигнал, чем больше информации, согласно Хайтину, он содержит. А чтобы его сжать, нужно описать шаблоны, которые в нем содержатся. Отсюда следует, что несжимаемые сигналы случайны, не имеют шаблонов и при этом содержат максимальный объем информации. С одной стороны, это логично: когда каждый следующий бит максимально непредсказуем, вы получаете больше информации, когда узнаёте его значение. Если в сигнале содержится 111111111111111, то маловероятно, что следующий бит тоже окажется 1; но если в сигнале содержится 111001101101011 (для того чтобы получить это значение, мы пятнадцать раз подбросили монету), то очевидной возможности угадать следующий бит у нас нет.

45
{"b":"282772","o":1}