Translate

87. Информация: фрагмент размышления.

   Я давно хотел разобраться с понятием информации. Потому что всегда испытывал дискомфорт, когда встречался с противоречивыми высказываниями великих людей в ее адрес. Вот пара примеров.
   Первый пример — это диаметрально противоположные высказывания Винера (1894-1964) и Шеннона (1916-2001) о связи организованности некоторой системы с количеством информации, содержащейся в системе.  Согласно Винеру "количество информации в системе есть мера организованности системы" [1]. Но согласно Шеннону, «как много информации создается» системой ([2], с. 259), определяется ее неорганизованностью (энтропией). Таким образом, возникает противоречие: с одной стороны, в организованной системе, согласно Винеру, много информации, с другой стороны, согласно Шеннону, такая система неспособна создать много информации.
Другой пример: под информацией, с одной стороны, понимают сообщение, в котором обязательно содержится элемент неожиданности, с другой стороны, под информацией понимают содержание повторно тиражируемых книг, лазерных дисков и пр., при чтении или просмотре которых никаких неожиданностей не возникает.
С приведенными выше противоречиями, к счастью, мне удалось разобраться. Оказалось, что первое из противоречий есть результат разного смысла, вкладываемого Винером и Шенноном в слово «хаос» (см. подробно статью «О хаосе и порядке»). А второе противоречие возникает в связи с отождествлением понятий «информация» и «информационное сообщение», что, если вдуматься, не есть одно и то же. В полной мере выявить различия (или тождественность?) указанных понятий мне не удалось до сих пор. Однако сейчас я не буду обсуждать эти различия, а постараюсь рассказать об одном заблуждении, которое мне удалось преодолеть только с посторонней помощью, и которое, по-видимому, должно быть поучительным для тех, кто хоть когда-нибудь серьезно задумывался над тем, что такое информация.
К сожалению, как бы мне (и вам) не хотелось обрисовать всю тему «заблуждения» в двух словах, это не удастся сделать просто потому, что нет преемственности между тем, о чем я думал до этой темы, и самой темой. Поэтому, извините, придется кратко напомнить пусть не все, но хотя бы основные тезисы в «информационной» области, которые я использую.
Итак,
1.      Информация «рождается» в источнике информации, и далее может передаваться (или не передаваться) информационными символами приемнику информации, который может опознать (или не опознать) принятые информационные символы.
2.      Информационный символ — в общем случае любой носитель энергии,  с помощью которого некоторый объект взаимодействует с окружающим миром. В частном случае информационный символ может быть «пустым», не несущем энергии. Информационные символы могут быть преобразованы без изменения (или с изменением) их энергетической природы. Совокупность передаваемых информационных символов есть информационное сообщение.
3.      Информационное сообщение характеризуется количеством информации и, как я называю вторую характеристику, — «содержанием» информации.
4.      Количество информации можно измерить или вычислить, все подробности изложены в трудах Шеннона [2].
5.      Содержание информации в сообщении имеет две составляющие: информационное значение и информационный смысл.
6.      Информационное значение сообщения — это взаимно однозначное соответствие между передаваемыми информационными символами и некоторыми реальными событиями, связанными с источником сообщений. В этом смысле информационное значение сообщения объективно.
7.      Если приемник сообщения устанавливает информационное значение сообщения, то происходит опознание этого сообщения. Процесс опознания — это декодирование, расшифровка сообщения, использующая правила расшифровки, имеющиеся в структуре приемника.
Если правила расшифровки понятны всему человечеству, то это, например, рисунки художников-реалистов.
Если правила расшифровки известны целой нации, то это язык общения между людьми этой нации.
Если правила расшифровки известны узкому кругу людей, то это, например, шифры секретных служб государств или организаций.
Если шифры известны только хромосомам человека, то лишь они могут "общаться" друг с  другом, не допуская в свой круг общения чужие  хромосомы, например, хромосомы коз J.
Наконец, если шифры доступны зародышу некоторого кристалла, то он может "общаться" (в процессе своего роста) только с теми элементами внешней среды, которым этот шифр  "понятен". Шифры неживой природы (например, кристалла) — это соответствующие элементам (атомам) кристалла физические параметры: число единичных связей, на которые способен распределяться заряд атома, величина радиуса силовых полей и пр.
8.      Смысл информационного сообщения — это степень опознания информационного сообщения приемником, то есть степень соответствия декодированного информационного сообщения его информационному значению. Смысл сообщения, таким образом,  зависит от приемника сообщения, поэтому он (смысл) субъективен.
Наглядно субъективность смысла сообщения обнаруживается в живой природе. Если приемник информационного сообщения, например, студент, не может понять приходящее к нему от профессора информационное сообщение, то для этого студента нет никакого смысла в услышанном. Для более понятливого студента  это же информационное сообщение профессора имеет определенный смысл. Субъективность смысла сообщения может быть продемонстрирована и такими примерами.
Первый. Сообщение «ТОР» имеет смысл предмета, похожего на хлебобулочное изделие «баранок» (для русского человека), а для англичанина это же сообщение воспринимается как «верх», «вершина».
Второй. В компьютере некоторая таблица из "нулей" и "единиц" может одновременно иметь смысл и рисунка, и звука, и инструкции для управления компьютером и т. п. (По крайней мере, никаких принципиальных ограничений для того, чтобы так было одновременно, нет). Все зависит от того, каким элементом компьютера информационное сообщение из этой таблицы будет декодировано.
9.      Адекватная интерпретация информационного сообщения происходит тогда, когда информационный смысл совпадает с информационным значением сообщения.
Теперь вернемся к теме. Обычно мы говорим, что «информация это сообщение о чем-либо» (см., например, словари [3], [4], [5]), то есть фактически отождествляем информацию и сообщение. Но в сообщении не обязательно есть информация, поскольку сообщение может быть от источника с нулевой энтропией (ограничиваюсь определением информации по Шеннону). Действительно, «источник может создавать только одно определенное сообщение,… его энтропия равна нулю и никакой канал <передачи информации> не нужен», — говорит Шеннон [2], стр.273. Но в этом случае получается, что сообщение есть, а информации нет. Согласитесь, что-то не так в «нашем» (имею в виду записи в словарях) представлении о том, что «информация это сообщение». Можно возразить: говоря об информации, мы имеем в виду не просто сообщение, а информационное сообщение, то есть такое сообщение, которое непременно содержит информацию. Подобное (информационное) сообщение согласно Шеннону есть такое сообщение, которое обязательно «выбирается из некоторого множества возможных сообщений» [6], то есть не является единственно возможным.
Тем не менее, сомнения по поводу тождественности информации и информационного сообщения остаются.
Во-первых, приемник, получив сообщение, «не знает», содержится в нем информация или нет: он просто «тупенько» пытается его расшифровать, и все.
Во-вторых, напрашивается аналогия: как смена тары не влияет на ее содержимое (например, замена ведра на канистру при транспортировке спирта не превращает спирт в воду), так и кодировки символов не меняют информацию в сообщении (например, преобразование пространственно-временной конфигурации потока электронов в светящиеся элементы люминофора дисплея не меняет информации на его экране). То есть, аналогия такова: информационное сообщение — это некая «тара», а информация — это содержимое тары.
Будучи под впечатлением этой аналогии, у меня возник вопрос: действительно ли информация содержится в информационном сообщении, как вода в ведре?
С одной стороны, это так, поскольку невозможно закодировать сообщение источника с энтропией H меньшим числом битов, чем  в среднем H битов на символ (иначе можно было бы передавать сообщение со скоростью, превышающей С/Н, что запрещает теорема ([4], с.270), доказанная Шенноном (здесь С — пропускная способность канала). Таким образом, сообщение может быть сохранено в памяти определенного объема, который не может быть меньше объема (количества) информации, содержащейся в этом сообщении. Все в точности с впечатлением, будто бы информация содержится в сообщении примерно так же, как и вода в ведре.
С другой стороны, сообщение может быть пустым, заведомо ничего не содержащим, и, тем не менее, оно может информировать людей о произошедших вдали от них событиях. Это утверждение как будто бы противоречит предыдущему, так как для «пустоты» тара не нужна. Но вот пример, который, собственно, и является причиной написания этого поста.
* * *
   Предположим, нам надо вечером в 21-00 передать из Нарвы в Таллинн информацию о том, прибыл ли  в Нарву в 14-00 автобус  из Санкт-Петербурга или не прибыл. Мы предварительно договариваемся с заинтересованными людьми в Таллинне (с приемником информации) о том, что если в 21-00 никаких сообщений из Нарвы в Таллинн не будет передано, значит, автобус прибыл. Этот "пустой" информационный символ приемник расшифрует благодаря существующей договоренности. Если же автобус не прибыл, то мы передадим материальный сигнал: «не прибыл». Таким образом, информация о том, что автобус прибыл, передается «пустым» символом (без использования какого бы то ни было материального сигнала).
   Поверхностный анализ усмотрит в подобной "методике" передачи информации логическую ошибку, указав на то, что достоверного приема информации в данном случае не происходит. Ошибка, якобы, состоит в том, что молчаливо предполагается, будто бы приемник сможет достоверно дешифрировать принятый "пустой" символ. На самом деле автобус мог не прибыть, а у источника информации могло не оказаться возможности передать об этом сигнал в Таллинн. В таком случае произошла бы ложная интерпретация "пустого" символа. Чтобы исключить ложное опознание, необходимо дополнительно к "пустому" символу передавать еще и "материальный" сигнал, подтверждающий работоспособность канала связи. Но этот вспомогательный сигнал можно воспринимать просто как информационный символ о событии: «автобус прибыл». В итоге создается впечатление, будто бы передавать информацию с помощью пустых символов невозможно.
   На самом деле никаких логических ошибок нет, и пустой символ ничуть не хуже материального. Покажем это.
   Сразу заметим, что при отсутствии помех и работоспособном канале связи оба варианта (материальный символ или пустой) позволяют достоверно передать информацию приемнику. Варианты отличаются друг от друга лишь в случае, если автобус не прибыл, а канал связи вышел из строя после установления договоренности по поводу смысла пустого символа, но до отправки сообщения о неприбытии автобуса. Только в этом случае произойдет ложная интерпретация "пустого" символа, и только для этого случая нужен материальный сигнал, подтверждающий работоспособность канала связи.
   Однако и в случае материальных символов канал связи может «сломаться» настолько, что приходящие в приемник символы будут искажены так, что информационное значение станет иным (например, «нет» вместо «да»). Поэтому передача информации с помощью материальных символов при ненадежном канале связи ничем не лучше передачи информации с помощью пустого символа. А при передаче информации по исправному каналу связи нет никакой разницы, используем мы для передачи сообщения «автобус прибыл» материальный или пустой символ — и в том, и в другом случае произойдет достоверная передача информации.
   Так каковы ваши соображения по поводу того, можно ли передавать информацию «пустым» сообщением? Пожалуй, я не буду отвечать на этот вопрос сейчас, чтобы оградить читателя от внутренне не мотивированного чтения. Вот появятся заинтересованные читатели…

Литература
1. Винер Н.  Кибернетика, или управление и связь в животном и машине. М: Наука, 1958.
2. Shannon C., A mathematical theory of communication, The Bell System Technical Journal, 27 (1948), № 3, 379-423, № 4, 623-656 //Шеннон К. Математическая теория связи. В кн.: Работы по теории информации и кибернетике. – М.: Изд. иностр. лит., 1963. – с. 243-332.
3. С.И.Ожегов, Н.Ю.Шведова Толковый словарь русского языка. Издательство "Азъ", 1992.
4. Физический энциклопедический словарь. / Гл. ред. А.М. Прохоров. Ред. кол. Д.М.Алексеев, А.М.Бонч-Бруевич, А.С.Боровик-Романов и др. — М.: Сов. энциклопедия, 1984.
5. Словарь иностранных слов. 16-е издание, — М.: «Русский язык», 1988.

6. Шеннон К. Современные достижения теория связи. В кн.: Работы по теории информации и кибернетике. – М.: Изд. иностр. лит., 1963. – с. 405.