| |
© 1968 Casa Ed. Valentino Bompiani & С. Spa,
Via Pisacane, 26 Milano
© А. Г. Погоняйло, В. Г. Резник, 1998 г.
|
Умберто Эko |
Отсутствующая структура.
Введение в семиологию
Сигнал и смысл |
III. Информация
III.1.
Когда мы узнаем, какое из двух Событий имеет место, мы получаем
информацию. Предполагается, что оба События равновероятны и что мы
находимся в полном неведении относительно того, какое из них произойдет.
Вероятность — это отношение числа возможностей ожидаемого исхода к
общему числу возможностей. Если я подбрасываю монетку, ожидая, орел
выпадет или решка, вероятность выпадания каждой из сторон составит 1/2.
В случае игральной кости, у которой шесть сторон, вероятность для каждой
составит 1/6, если же я бросаю одновременно две кости, рассчитывая
получить две шестерки или две пятерки, вероятность выпадания одинаковых
сторон будет равняться произведению простых вероятностей, т. e. 1/36.
39
Отношение ряда Событий к ряду соответствующих им возможностей — это
отношение между арифметической и геометрической прогрессиями, и второй
ряд является логарифмом первого.
Это означает, что при наличии 64-х возможных исходов, когда, например,
мы хотим узнать, на какую из 64-х клеточек шахматной доски пал выбор, мы
получаем количество информации, равное Lg264, т.e. шести. Иными словами,
чтобы определить, какое из шестидесяти четырех равновероятных Событий
произошло, нам необходимо последовательно произвести шесть операций
выбора из двух.
Как это происходит, показано на рисунке 2, причём для простоты число
возможных случаев сокращено до восьми если имеется восемь
непредсказуемых, так как они все равновероятны, возможных исходов, то
определение одного из них потребует трех последовательных операций
выбора. Эти операции выбора обозначены буквами. Например, чтобы
идентифицировать пятый случай, нужно три раза произвести выбор в точке
А между B1 и В2, в точке B2 между С3 и C4 и в точке СЗ выбрать между
пятым и шестым случаями. И так как речь шла об
Идентификации одного
случая из восьми возможных, то Log28 = 3.
40
В теории информации единицей информации, или битом (от "binary digit",
т. e. "бинарный Сигнал"), называют информацию, получаемую при выборе из
двух равновероятных возможностей. Следовательно, если идентифицируется
один из восьми случаев, мы получаем три бита информации, если один из
шестидесяти четырех — то шесть битов.
При помощи бинарного метода определяется один из любого возможного
числа случаев — достаточно последовательно осуществлять выбор, постепенно
сужая круг возможностей. Электронный мозг, называемый цифровым, или
дигитальным, работая с огромной скоростью, осуществляет астрономическое
число операций выбора в единицу времени. Напомним, что и обычный
калькулятор функционирует за счёт замыкания и размыкания цепи,
обозначенных 1 и 0 соответственно; на этой основе возможно выполнение
самых разнообразных операций, предусмотренных алгеброй
Буля.
III.2.
Характерно, что в новейших лингвистиических исследованиях обсуждаются
возможности применения метода бинарных оппозиций при изучении вопроса о
возникновении информации в таких сложных Системах, как, например,
естественный язык .
Знаки (слова) языка состоят из фонем и их сочетаний,
а фонемы—это минимальные единицы звучания, обладающие дифференциальными
признаками, это непродолжительные звучания, которые могут совпадать или
не совпадать с буквами или буквой алфавита и которые сами по себе не
обладают Значением, но, однако, ни одна из них не может подменять собой
другую, а когда такое случается, слово меняет свое Значение.
Например,
по-итальянски я могу по-разному произносить "e" в словах "bene" и "cena",
но разница в произношении не изменит Значения слов. Напротив, если,
говоря по-английски, я произношу "i" в словах "ship" и "sheep"
(транскрибированных в словаре соответственно
"∫ip"
и
"∫ip"
по-разному, налицо оппозиция двух фонем, и действительно,
первое слово означает "корабль", второе — "овца". Стало быть, и в этом
случае можно говорить об информации, возникающей за
счёт бинарных
оппозиций.
III.3.
Вернемся, однако, к нашей коммуникативной Модели. Речь шла о единицах
информации, и мы установили, что когда, например, известно, какое
Событие из восьми возможных осуществилось, мы получаем три бита
информации. Но эта "информация "имеет косвенное отношение к собственно
Содержанию сообщения, к тому, что мы из него
узнали.
--------------------
10 См библиографию в Lepschy, cit, и у Якобсона (Якобсон P. Избранные
работы М , 1985)
41
Ведь для теории информации не представляет интереса,
о чём
говорится в сообщениях, о числах, человеческих именах, лотерейных
билетах или графических Знаках. В теории информации значимо число
выборов для однозначного определения
События. И важны также альтернативы,
которые — на уровне источника — представляются как со-возможные.
Информация это не столько то, что говорится, сколько то, что может быть
сказано. Информация — это мера возможности выбора.
Сообщение, содержащее
один бит информации (выбор из двух равновероятных возможностей),
отличается от сообщения, содержащего три бита информации (выбор из
восьми равновероятных возможностей), только тем, что во втором случае
просчитывается большее число вариантов.
Во втором случае информации
больше, потому что исходная ситуация менее определенна. Приведём
простой пример: детективный роман тем более держит читателя в напряжении
и тем неожиданнее развязка, чем шире круг подозреваемых в убийстве.
Информация — это свобода выбора при построении сообщения, и,
следовательно, она представляет собой статистическую характеристику
источника сообщения. Иными словами, информация — это число
равновероятных возможностей, её тем больше, чем шире круг, в котором
осуществляется выбор. В самом деле, если в игре задействованы не два,
восемь или шестьдесят четыре варианта, a n миллиардов равновероятных
Событий, то выражение
I = Lg2l09n
составит неизмеримо большую величину. И тот, кто, имея дело с таким
источником, при получении сообщения осуществляет выбор одной из n
миллиардов возможностей, получает огромное множество битов информации.
Ясно, однако, что полученная
информация представляет собой известное
обеднение того несметного количества возможностей выбора, которым
характеризовался источник до того, как выбор осуществился и
сформировалось сообщение.
В теории информации, стало быть, берется в
расчёт равновероятность на
уровне источника, и эту статистическую величину назывют заимствованным
из термодинамики термином Энтропия 11. И действительно, Энтропия
некоторой Системы — это состояние
равновероятности, к которому стремятся её элементы.
--------------
11 См Норберт Винер.
Кибернетика. С. E. Shannon, W.
Weaver, The
Mathematical Theory of information, Urbana, 1949, Colin
Cherry, On Human
Communication, cit, A. G. Smith, ed , Communication and Culture (часть
I), N Y. 1966; а также работы, указанные к прим. 2 и 4.
42
Иначе говоря, Энтропия
связывается с неупорядоченностью, если под порядком понимать
совокупность вероятностей, организующихся в Систему таким образом, что
её поведение делается предсказуемым. В кинетической теории газа
описывается такая ситуация: предполагается, впрочем, чисто
гипотетически, что между двумя заполненными газом и сообщающимися
емкостями наличествует некое устройство, называемое демоном Максвелла,
которое пропускает более быстрые молекулы газа и задерживает более
медленные. Таким образом в Систему вводится некоторая упорядоченность,
позволяющая сделать прогнозы относительно распределения температур.
Однако в действительности демона Максвелла не существует, и молекулы
газа, беспорядочно сталкиваясь, выравнивают скорости, создавая некую
усредненную ситуацию, тяготеющую к статистической равновероятности. Так
Система оказывается высокоэнтропийной, а движение отдельной молекулы
газа непредсказуемым.
Высокая энтропийность Системы, которую представляют собой буквы на
клавиатуре пишущей машинки, обеспечивает возможность получения очень
большого количества информации.
Пример описан Гильбо [Georges-Théophile
Guilbaud]: машинописная
страница вмещает 25 строк по 60 Знаков в каждой, на клавиатуре 42
клавиши, и каждая из них позволяет напечатать две буквы, таким образом,
с добавлением пробела, который тоже Знак, общее количество возможных
символов составит 85. Если, умножив 25 на 60, мы получаем 1
500 позиций,
то спрашивается, какое количество возможных Комбинаций существует в этом
случае для каждого из 85 Знаков клавиатуры?
Общее число сообщений с длиной L, полученных с помощью клавиатуры,
включающей С Знаков, можно определить, возводя L в степень С. В нашем
случае это составит 85 возможных сообщений. Такова ситуация
равновероятности, существующая на уровне источника, и число возможных
сообщений измеряется 2895-ти значным числом.
Но сколько же операций выбора надо совершить, чтобы идентифицировать
одно-единственное сообщение? Очень и очень много, и их реализация
потребовала бы значительных затрат времени и энергии, тем больших, что,
как нам известно, объем каждого из возможных сообщений равен 1
500 Знакам,
каждый из которых определяется путем последовательных выборов между 85
символами клавиатуры... Потенциальная возможность источника, связанная
со свободой выбора, чрезвычайно высока, но Передача этой информации
оказывается весьма затруднительной
---------------------
12 Georges-Théophile
Guilbaud, La Cybernétique P.U. F., 1954
43
III.4.
Здесь-то и возникает нужда в коде с его упорядочивающим действием. Но
что даёт нам введение кода? Ограничиваются комбинационные возможности
задействованных элементов и число самих элементов. В ситуацию
равновероятности источника вводится Система вероятностей: одни
Комбинации становятся более, другие менее вероятными. Информационные
возможности источника сокращаются, возможность Передачи сообщений резко
возрастает.
Шеннон 13 определяет информацию сообщения, включающего N операций выбора
из h символов, как I = NLg2 h (эта формула напоминает формулу
Энтропии).
------------------------------
13 Впервые закон сформулирован R.V L. Hartley, Transmission of
Information, in "Bell System Tech. I", 1928. Смотри также, помимо
Cherry,
cit, Anatol Rapaport, What is Information?, in "ETC", 10, 1953.
Итак, сообщение, полученное на базе большого количества символов, число
Комбинаций которых достигает астрономической величины, оказывается
высокоинформативным, но вместе с тем и непередаваемым, ибо для этого
необходимо слишком большое число операций выбора. Но эти операции
требуют затрат, идет ли речь об электрических Сигналах, механическом
движении или мышлении: всякий канал обладает ограниченной пропускной
способностью, позволяя осуществить лишь определенное число операций
выбора. Следовательно, чтобы сделать возможной Передачу информации и
построить сообщение, необходимо уменьшить Значения N и h. И ещё легче
передать сообщение, полученное на основе Системы элементов, число
Комбинаций которых заранее ограничено. Число выборов уменьшается, но
зато возможности Передачи сообщений возрастают.
Упорядочивающая функция кода как раз и позволяет осуществить
коммуникацию, ибо код представляет собой Систему вероятностей, которая
накладывается на равновероятность исходной Системы, обеспечивая тем
самым возможность коммуникации. В любом случае информация нуждается в
упорядочении не из-за её объема, но потому, что иначе её Передача
неосуществима.
С введением кода число альтернатив такого высокоэнтропийного источника,
как клавиатура пишущей машинки, заметно сокращается. И когда я, человек
знакомый с кодом итальянского языка, за
неё сажусь, Энтропия источника
уменьшается, иными словами, речь идет уже не о 85 сообщениях на одной
машинописной странице, обеспечиваемых возможностями клавиатуры, но о
значительно меньшем их числе в соответствии с вероятностью, отвечающей
определенному набору ожиданий, и, стало быть, более предсказуемом.
44
И даже если число возможных сообщений на страничке машинописного текста неизменно
велико, все равно введенная кодом Система вероятностей делает
невозможным Присутствие в моём сообщении таких последовательностей
Знаков, как "wxwxxsdewvxvxc", невозможных в итальянском языке за
исключением особых случаев металингвистических описаний, таких как
только что приведенное. Она, эта Система, не разрешает ставить q после
ass, зато позволяет предсказать с известной долей уверенности, что вслед
за ass появится одна из пяти гласных: asse, assimilare и т.д. Наличие
кода, предусматривающего возможность разнообразных Комбинаций,
существенно ограничивает число возможных выборов.
Итак, в заключение дадим определение кода как Системы, устанавливающей
1) репертуар противопоставленных друг другу символов;
2) правила их
сочетания;
3) окказионально взаимооднозначное соответствие каждого
символа какому-то одному означаемому.
При этом возможно выполнение лишь
одного или двух из указанных условий 14 .
--------------------------
14 Так , в нашем примере с механизмом исключается п 3. Получаемым
Сигналам не соответствует никакое означаемое. (В крайнем случае можно
говорить о соответствии лишь для того, кто установил код.)
Оглавление
Литература
www.pseudology.org
|
|