Б. М. Попов
04.07.2012 г.

  На главную раздела "Научные работы"





Количество информации

Какой мерой меряете,
той же мерой и вам отмеряно будет.

          В работе Борисова В. И. [15] получена (на базе более реальных посылок, чем у Бреммермана) формула, увязывающая количественно выраженную массу тела с количеством информации, которая может быть обработана физическим телом с указанной массой за единицу времени. Подставляя в указанную формулу значение массы электрона, в результате получаем: количество обрабатываемой электроном за секунду информации (в шенноновском смысле) превосходит количество информации, хранимой во всех библиотеках мира. Это говорит о наличии у электрона сложной организационной структуры и, соответственно, способности к непростому (т. е. к далеко не всегда предсказуемому) поведению. Что и наблюдается на самом деле.

          Говоря об информации, нельзя не упомянуть о распространенном термине «количество информации», тем более что мы уже его только что применяли. С этим термином связана некоторая неясность, ибо зачастую предполагается, что если известно, что такое количество информации, то должно быть ясно, что такое информация. По аналогии можно было бы сказать: раз мы умеем измерять жидкости и сыпучие материалы ведрами, то и о самих жидкостях и сыпучих материалах знаем все. На понятии «количество информации», возможно (как сказал бы Ницше), проявляется победа научного метода над наукой в интересах техники, и поэтому представляется интересным сделать короткий поход в малоинтересную область техники. По пути проанализируем технический подход к информации, представляя, что имеем дело с материалом конструкции сообщения (агрегатом различий, кодом), которым могут репрезентатироваться свежие сведения о структуре организации, пославшей это сообщение. То есть, по сути, будем иметь дело не с информацией, а с ее переносчиками. Если применить медицинскую аналогию, то мы имеем дело не с дизентерией, а с ее переносчиками — например, туристами.

          Касаясь технического аспекта информации, надо отметить, что мера количества может быть как абсолютной, так и относительной. Такое обычное разделение мер в теории измерений, похоже, не находит понимания при оценках количества информации и, как следствие, приводит к приписыванию шенноновской мере информации исключительных свойств — единственной непротиворечивой меры информации. Обычно информацию отождествляют с мерой снятой неопределенности, т. е. с количеством неопределенности, которую она устраняет. Короче — информацию определяют через дезинформацию. Мы же, придерживаясь подхода к информации как к потоку разнообразия, порождаемому структурами и активизирующему их, и используя содержание книги Горского [16], будем понимать информацию как меру снятого разнообразия. Посмотрим, с какими предположениями и ограничениями имеет право на существование формула количества информации Шеннона.

          Абсолютное количество информации определяется только числом различных элементов N, т. е.

I = N.

          В зависимости от носителя информации и принятого порога различимости в качестве N, например, могут быть приняты числа принятых импульсов, переданных букв, используемых дискет, листов текста и т. д. Относительное же количество информации характеризует связь между N и каким-либо базисом, относительно которого определяется количество информации. В качестве такого базиса может служить базисное число различимых единиц информации или какой-то показатель качества функционирования y, например, вес «ущерба», степень достижения цели. Тогда в первом случае относительное количество информации будет находиться из выражения

I = N — Nб
или I = N ∕ Nб,

          а во втором случае — из выражения

I = fy (N),

          где fy — функция приведения N к некоторому показателю y. Если функция fy имеет логарифмический вид, т. е. I = log N, то получим известное выражение Хартли. В общем случае может иметь место двойное приведение N — к и к y, т. е.

I = fy(N, Nб).

          Два последних выражения характеризуют относительное количество информации, когда аргументом является число различимых единиц информации и при этом различимость элементов информации рассматривается только с точки зрения определения их числа, а между собой они никак не различаются. Поскольку аргументом может быть не только N, а сопутствующие этим элементам признаки x (например, априорная вероятность появления событий или величина рассогласования по отношению к цели), то следует уже говорить о косвенном относительном количестве информации. Это количество информации будет функцией от каких-то показателей качества x, присущих всем различимым элементам информации. Именно показатели x обеспечивают различие между элементами информации, т. е. имеет место следующая совокупность:

1, 2, ..., N
X1, X2, ..., XN

          Для такой совокупности косвенное относительное количество информации в предположении аддитивности ее элементов будет находиться из зависимости

I = ∑ fy (xi, xб), i от 1 до N.

          Если в качестве xi взять априорную вероятность pi появления события А, которое идентифицируется i-м элементом информации, а принять равным 1 и предположить, что fy имеет логарифмический вид, то получим формулу Шеннона, характеризующую математическое ожидание относительно количества информации, заключенного в N элементах информации:

IA = ∑ pi log pi, i от 1 до N

          Вот, вроде, все время внимательно «следили за руками», выводящими формулу, а в результате видим — под знаком суммирования сплошные вероятности. Но, на самом деле, экономика вероятности отличается от экономики энергии или денег тем, что вероятность, будучи отношением, не подлежит сложению или вычитанию, а подвержена только мультипликативным процессам, — например, дроблению. Кажется, шенноновское определение количества информации является сильно специализированным (коммерческим), удобным (выгодным) для еще большего накручивания прибыли провайдерами услуг связи. Из-за него и происходят и «глобальные финансовые кризисы». Они проявляются во времена активной телефонизации. Кстати, обратите внимание, шенноновское количество информации представляется безразмерной величиной. Здесь мы ничего не измеряем, а только подсчитываем некие различия. Информация — средство адекватной интерпретации данных.



В начало                              Продолжение
 

Добавить комментарий Сообщение модератору


Защитный код
Обновить