30.10.2010 г.

  На главную раздела "Разобрать после переноса"


 

  
 

Введение в синергетику и динамическую теорию

информации

Обзор для изучающих
синергетику и теорию информации

П.1. ВВЕДЕНИЕ

          Сначала возникло понятие информации, синергетика – потом. Какая связь?

          Теория информации занимается проблемами передачи, хранения, получения (рецепции). Ценность информации некоторое время оставалась вне поля зрения. Ценность информации зависит от цели, к которой стремится принимающий эту информацию объект (субъект). Считалось, что цель ставится извне, а информация нужна лишь для того, чтобы достичь её наискорейшим и оптимальным образом.

          Традиционная теория информации носила антропийный характер (для разумных существ, стремящихся к цели, «желающих» чего-либо).

          Цель – вне объекта, а информация формируется внутри объекта. Сейчас ситуация изменилась благодаря появлению синергетики и внедрению её в информатику.

          Во-первых, стал исследоваться вопрос об эволюции информации, в частности, биологической. Проблема происхождения жизни теперь формулируется как проблема спонтанного возникновения новой ценной биологической информации. Речь о том, каковы минимальные требования к объектам и условиях их существования, чтобы можно говорить о цели. Иначе, может ли неживая молекула «желать» чего-либо и при каких условиях это возможно? Как неживые молекулы превратились в «живые»?

          Во-вторых, стали исследоваться физические механизмы, лежащие в основе рецепции, запоминания и переработки информации. На очередь выступают проблемы рецепции информации в биологических рецепторных системах, так как последние по чувствительности часто превосходят искусственные устройства.

          Информатика вступает в новую фазу развития. Для неё характерна более тесная связь с физикой (в частности, биофизикой). Связь эту осуществляет синергетика, а точнее, её раздел – динамическая теория информации.

          Рассмотрим некоторые вопросы, связанные с ценной информацией, её генерацией и эволюцией. Будем использовать динамические модели процессов.

П.2. Что такое информация?

          «Информация есть сведения о…» – тавтология. Информация – есть выбор варианта (или нескольких) из многих возможных и равноправных (принадлежащих одному множеству).

          Если выбор указан, то говорят о рецепции информации. Если выбор произведён самостоятельно и случайно, то говорят о возникновении информации. Если выбор однозначно определён ситуацией или др. (выбора нет), то об информации вообще говорить не приходится.

          В простейшем случае выбор между двумя возможностями. Дорога раздваивается, нужно решить, куда идти. Если есть указатель – то это рецепция информации. Если дорога заранее известна, то никакой информации не нужно. Если решение принимается случайно (монета), то это рождение информации. Количественно

                      img325, img326,                 (П.1)

где i – число вариантов. Если все априорные вероятности одинаковы (Pi = 1/N), то

                      I = +log2N.           (П.2)

При N = 2 – один бит информации: I = 1. (Такое количество информации содержится в «указателе», оно же генерируется при случайном выборе). В случае, когда выбор i-го варианта предопределён заранее (выбора нет), т.е. все Pi = 0, кроме одной Pj = 1, то количество информации I = 0. В данном примере все варианты принадлежат одному множеству (пути). «Равноправие» не означает, что они равновероятны.

          Рассмотрим основные свойства информации.

          Запоминаемость (Г. Кастлер) [25] – «информация – запомненный выбор одного (или нескольких) из числа возможных».

          Запомнить – привести систему в определённое устойчивое состояние. Их должно быть, по крайней мере, два. Каждое должно быть абсолютно устойчивым, иначе система сама может перейти в иное состояние и эффект запоминания исчезнет. Запоминание производится переключением под воздействием внешнего импульса. Свойством обладают лишь макроскопические системы, состоящие из многих атомов. Атом может находиться в одном устойчивом состоянии. Запоминать могут и биологические макромолекулы, способные находиться в одном из нескольких устойчивых конформационных состояний. Запоминанием обладают не все макроскопические системы.

          Например, термодинамически равновесное состояние для каждой макроскопической системы только одно. Поэтому запоминающая система должна быть термодинамически неравновесной.

          Во-вторых, вопрос: «На какое время запоминать?» Время запоминания в любом случае существенно больше макроскопических времён (время соударения атомов » 10–3 с). Информацию в смысле Кастлера называют макроскопической, подчёркивая как пространственные масштабы запоминающей ячейки, так и масштабы времени запоминания. В реальной практике всегда имеют дело с информацией в смысле Кастлера, т.е. запоминаемой.

          Незапоминаемая информация – «информация Бриллюэна», которую можно назвать микроскопической. Пример. Информацией можно считать набор положений и скоростей молекул в сосуде с газом в данный момент времени. Этот набор – один из возможных вариантов состояния данной системы. Важно, что этот набор в системе не запоминается; через микроскопическое время (~10–3 с) реализуется другой набор, и в силу неустойчивости движения молекул система забывает о своём прошлом (свойство «забывания прошлого» – необходимое условие существования термодинамически равновесных систем).

          Состояния газа, в котором известны положения и скорости молекул, обладает, формально говоря нулевой энтропией и максимальной информацией. Напротив, состояние, о котором ничего не известно, обладает максимальной энтропией и нулевой информацией. В общем случае имеет место соотношение, вытекающее из формулы (П.2) и определения энтропии:

                      img327,                    (П.3)

где S = –ln W – физическая энтропия, W = 1/N – вероятность реализации данного выбора; K = 1,38×10–16 эрг/град. – постоянная Больцмана, коэффициент 1,44 = log2e. Из (П.3) следует, что прирост микроинформации Iмикр сопровождается уменьшением энтропии S: img328. В связи с этим введено понятие негеэнтропии, которое совпадает с микроинформацией. Подчеркнём, речь здесь идёт о микроинформации (в смысле Бриллюена), которая не используется в реальной практике и не совпадает с макроинформацией (в смысле Кастлера). Последняя в данном примере равна нулю, даже если координаты и скорости частиц в данный момент времени известны (поскольку эти сведения не запоминаются).

          В случаях, когда система имеет несколько стационарных состояний и, следовательно, может обладать макроинформацией, количество последней очень мало по сравнению с количеством микроинформации. Так, например, количество макроинформации, содержащееся в организме человека, мало по сравнению с величиной img329, где S – энтропия тела. На это обстоятельство обратил внимание Л.А. Блюменфельд.

          Макроинформация практически не связана с физической энтропией системы. Получение (возникновение) 1 бита макроинформации сопровождается продукцией Sмакр, которая существенно превосходит S0, соответствующую 1 биту микроинформации: Sмакр >> S0 = 0,7K.

          Продукцией физической энтропии сопровождается также и процесс «стирания» микроинформации. Эта энтропия, как правило, рассеивается в окружающей среде, и количество энтропии в самой информационной системе не изменяется ни при рецепции информации, ни при её стирании.

          Иногда используют термин «информационная энтропия» (имеется в виду макроинформационная). Она не связана с физической энтропией и измеряется не в единицах K, а в битах. Она просто равна макроинформации, которая по тем или иным причинам исчезла («стёрлась») в процессе передачи или хранения. Более глубоко смысла этот термин не имеет, и мы ниже пользоваться им не будем.

          Далее нас будут интересовать вопросы о том, что такое новая ценная, условная (безусловная) информация. Все эти эпитеты имеют смысл по отношению к макроинформации и неприменимы к микроинформации. Поэтому всюду, где употребляется термин «информация» мы будем иметь в виду именно макроинформацию и для краткости будет называть её просто информацией.

          Иерархическая структура. В любом реальном процессе выбор варианта приходится делать несколько раз. Пример с разветвлениями на дороге. Каждый последующий выбор имеет смысл на базе уже сделанного ранее. Важно также, что предыдущий выбор не предрешает, как правило, последующий. Отсюда следует, что необходимо различать уровни информации. При этом нижний уровень является общим для верхних, т.е. он необходим для рецепции (и/или генерации) информации на верхних уровнях.

          Другой пример. Человек, появившись на свет, выбирает язык общения. Ребёнок рецептирует информацию о языке от родителей. Затем выбирает специальность. Это возможно, если он уже владеет языком (включая и язык жестов). Овладев специальностью, он выбирает направление труда. Этот выбор он делает, владея не только языком, но и специальностью. Таким образом при развитии системы во времени информации на нижних уровнях возникает раньше, т.е. является эволюционно более древней.

          Ценная информация, которой мы пользуемся в жизни, как правило, принадлежит самому верхнему уровню. Для её восприятия необходимо владеть языком, профессией и т.д.

          В теории информации существует специальный термин «тезаурус». Он означает информацию нижнего уровня, которая необходима для рецепции (и/или генерации) информации на верхнем.

          Информации на каждом уровне качественно отличаются. Выбор всегда осуществляется на определённом уровне. Это уже заложено в определении: «информация есть выбор одно варианта среди нескольких возможных и равноправных». Мы остановились на этом, чтобы подчеркнуть важность информации нижних уровней, часто это забываем.

          Информация бывает условная и безусловная. Пример условной информации – код для зашифровывания сообщений. Код – соответствие между условными символами и реальными предметами (и/или действиями). Число вариантов (различных) кода, т.е. наборов символов, очень велико. Выбор одного варианта производится случайно и запоминается как передающей, так и принимающей стороной.

          Ценной кодовая информация может быть, только если ею владеют несколько человек (минимум два). Таким образом, условная информация возникает как результат общественной деятельности. Условность информации, возникающей при выборе кода, очевидна. Информация, содержащаяся в алфавите и словарном запасе, также является условной.

          Безусловной является информация о реально происходящих событиях. Она не нуждается в согласовании в каком-либо обществе. В принципе она может рецептироваться в информационной системе без участия человека. Часто эту информацию называют смысловой, чтобы отличить её от кодовой. Безусловная информация не возникает случайно, она рецептируется из окружающей действительности. Пример. Информация – «в таком-то городе случилось землетрясение». Это событие есть результат выбора, который произошёл в природе либо случайно, либо закономерно. Но выбор сделан, его констатация не содержит элемента случайности. Аналогично можно говорить и об общественном явлении.

          Каждое сообщение содержит как условную, так и безусловную информацию. Какая условная, а какая безусловная определить не просто. Во-первых, условная информация имеет тенденцию к унификации, что естественно, поскольку ценность её при этом возрастает. Эта тенденция более выражена на нижних уровнях, как эволюционно более древних. На верхних уровнях, как правило, сосуществуют несколько вариантов кода (или формального аппарата). Выбор кода для описания того или иного круга явлений – акт генерации условной информации.

          Во-вторых, унифицированная условная информация часто воспринимается как безусловная. Так, люди, владеющие только одним языком, часто думают, что другого вообще не может быть и, следовательно, языковая (кодовая) информация безусловна. Абсурдность такого мнения очевидна, поскольку язык на нашей планете не унифицирован. Более тонкий вопрос связан с математическим формализмом. На нижнем уровне, включающем хотя бы арифметику, этот формализм уже унифицирован. Поэтому мнение о том, что «другого быть не может», распространено достаточно широко. Однако унификация математического аппарата произошла в результате эволюции. При этом были в употреблении другие варианты, отличающиеся от современного. Многие из них были оставлены без внимания не потому, что они хуже, а потому, что большая часть общества уже приняла (выбрала) определённый вариант, и он стал общепринятым.

          На верхних уровнях сейчас существует несколько различных вариантов аппарата описания: концептуальное описание, динамические модели, вероятностные модели, дискретные автоматы и др. Каждый из них может претендовать на унификацию (т.е. описание всех явлений). В ряде случаев удаётся доказать эквивалентность какого-либо из них другому, тогда говорят о разных вариантах одного аппарата. Однако во многих случаях вопрос о предпочтении того или иного варианта остаётся открытым. Поэтому выбор математического аппарата – акт генерации ценной условной информации.

          В-третьих, наиболее интересным и острым остаётся вопрос об условности (или безусловности) информации в естественных науках. Принято думать, что, изучая природу, мы получаем (рецептируем) объективную (т.е. безусловную) информацию. Это действительно так, если речь идёт об экспериментальных качественных результатах. Например, информация «одноимённые электрические заряды отталкиваются» является безусловной. При этом сделан выбор между двумя возможностями: «притягиваются–отталкиваются», и этот выбор рецептирован из природы с помощью опыта. Однако на этом наука не кончается. Возникают вопросы: каковы количественные характеристики взаимодействия зарядов, какие выводы можно сделать и как предсказать свойства других, связанных с наблюдаемым, явлений?

          Для ответа на эти вопросы необходимо выбрать аппарат (алгоритм) описания, и здесь мы сталкиваемся с генерацией условной информации. Алгоритм описания круга явлений содержит две части: математический аппарат и ряд физических положений (постулатов или гипотез). Иными словами он представляет собой математическую модель круга явлений. Эта модель должна, во-первых, описывать все имеющиеся данные (с определённость точностью) и, во-вторых, обладать предсказательной силой. В случае, если предсказания модели не оправдываются, модель отвергается. Как правило, можно предложить несколько моделей, которые удовлетворяют этим условиям и отличаются выбором математического аппарата и (или) постулатами. Успех модели существенно зависит от того, насколько выбранный аппарат и постулаты являются общепринятыми в данный момент времени. Таким образом, выбор варианта модели – генерация условной информации. Научное творчество в целом содержит два элемента: рецепция безусловной информации от природы и генерация условной (теоретической) информации. Успех последнего зависит от того, в какой мере выбранный алгоритм описания уже принят в обществе, т.е. от того, каков тезаурус этого общества.

          Иными словами, успешность «божественного озарения» научного гения зависит от тезауруса общества в данный момент времени или в ближайшем будущем.

          Ценность информации. Обсудим её более детально. Информация может быть ценной (или не ценной) в зависимости от преследуемой цели. Вопрос о том, как и кто формулирует цель или, в более широком плане, как она возникает, в современной теории информации обычно не обсуждается. Принимается, что цель известна (задана), и речь идёт о том, как её достичь. Ценной информацией считается та, которая помогает достижению цели. Известны два метода определения количественной меры ценности информации, они различны и применяются в различных ситуациях.

          Если цель наверняка достижима и притом несколькими возможными путями, то удобна мера ценности, предложенная Р.Л. Стратоновичем [62]. Она состоит в оценке условных «штрафов» (или затрат времени, средств и т.п.) и измеряется в уменьшении затрат в результате её получения. Так, например, если цель – поездка в другой город, то ценной будет информация о расписании автобусов, поездов, самолётов, стоимости билета и т.д. Количественной мерой её может служить сэкономленное время (и/или деньги).

          Если, напротив, достижение цели маловероятно, то удобнее пользовать критерием, предложенным Н.М. Бонгартом и А.А. Харкевичем [4, 67]. Мерой ценности при этом является логарифм отношения вероятностей достижения цели до получения информации (Pin) и после этого (Pfin):

                      img330.                    (П.4)

          В обоих случаях ценность может быть как положительной, так и отрицательной (в последнем случае она называется дезинформацией). Примеры использования критерия (П.4) мы обсудим ниже.

          Здесь уместно сделать ряд замечаний. Во-первых, формулировка цели определяет множество вариантов, из которых делается выбор. Любая информация, не имеющая отношения к данной цели, обладает нулевой ценностью.

          Во-вторых, целей может быть несколько, важно чтобы они не противоречили друг другу. Это возможно в двух случаях. В первом соответствующие целям множества не пересекаются. Например, некто ставит цель: купить определённый предмет для дома и синтезировать вещество с заданными свойствами на работе. Для достижения первой цели необходимо сделать выбор из множества магазинов; для достижения второй – нужно выбрать соответствующие исходные материалы и путь синтеза. Эти множества не пересекаются и цели не вступают в противоречие (если, разумеется, не возникают временны́е накладки). Во втором случае цели образуют иерархическую структуру; достижение каждой предыдущей необходимый этап для достижения главной. Эти цели располагаются по уровням, которые соответствуют уровням в иерархии информаций. Например, некто ставить главную цель: создать нечто новое и полезное для человечества. Достижение её требует формулировки промежуточных целей: овладение нужным уровнем образования, выбор специальности, выбор направления работы и т.д., о чём уже говорилось выше.

          Отметим, что в современной теории информации само понятие «цель» имеет человеческий или по крайней мере биологический оттенок. Действительно, слова «я стремлюсь к цели» и «я хочу» почти синонимы. Однако ниже, используя синергетический подход, мы попытаемся расширить это понятие применительно к неживым объектам.

          Слово «информация» употребляется часто с эпитетом «новая». Это понятие также нуждается в уточнении. Абсолютно новой может быть только безусловная информация, которая получается экспериментально благодаря расширению области исследования и совершенствованию экспериментальной техники. Что касается новой информации теоретического характера, носящей элемент условности, то здесь вопрос сложнее. Абсолютно новой её назвать трудно, поэтому далее мы будем говорить о новой, но не в абсолютном смысле, информации.

          Иногда новой оказывается информация, не известная данной части общества, но известная другим его частям. Это бывает, когда новая информация не совпадает с уже сложившейся и общепринятой в данной части общества. Часто новой называют информацию, не известную в данный момент времени всему обществу, но известную в данный момент отдельным людям или в прошлом. Это очень распространённый случай; недаром говорят, что «новое – это хорошо забытое старое». Кроме того, в научных архивах хранится колоссальное количество различных предложений, которые в своё время не были приняты обществом по тем или иным причинам. Поэтому велика вероятность того, что возникшая независимо новая информация оказывается сходной с уже лежащей в архиве. Опыт показывает, однако, что легче генерировать новую информацию, нежели «рецептировать» её из архива. Можно привести множество примеров такого типа.

          Далее нас будет интересовать вопрос о генерации новой ценной информации. Ясно, что речь пойдёт об условной информации; слово «новая» мы будем употреблять без кавычек и тем не менее не будем упускать из внимания сказанное выше.

          Вопрос о рецепции информации обсуждался достаточно детально. Из изложенного ясно, что для рецепции информации на определённом уровне необходимо, чтобы система уже обладала условной информацией на нижних уровнях. Кроме того, необходимо, чтобы в рецептирующей системе существовало всё множество вариантов данного уровня, выбор из которых предлагается в рецептируемом сообщении. Как упоминалось, эти условия обозначаются одним словом – тезаурус. Например, для рецепции информации из математической статьи нужно знать язык, на котором она написана, математический формализм и иметь профессиональную подготовку в данном направлении. Последнее необходимо для того, чтобы предлагаемый в статье вариант решения проблемы был бы воспринят как один из возможных и не показался бы абсурдным или непонятным.

          Для генерации информации на данном уровне необходимы те же условия. Разница лишь в том, что выбор варианта делается случайно (по наитию) и, во всяком случае, независимо от стороннего источника.

          Подведём итог изложенного выше. Мы обсудили смысл основных понятий теории информации. При этом мы не касались многих технических задач, которые возникают и решаются в теории информации. Круг этих задач достаточно широк, но здесь мы их можем только перечислить.

          Во-первых, это экономная и помехоустойчивая передача информации: речь идёт об оптимальной конструкции передающего устройства (включая и «кабель» связи).

          Во-вторых, это хранение информации и её рецепция – здесь речь идёт об оптимальной конструкции блока памяти, которая обеспечивает наибольшую ёмкость и вместе с тем доступность запомненной информации. (Наиболее интересны тут задачи о наложении информации и об ассоциативной памяти. Последнее означает, что в блоке памяти могут быть наложены друг на друга информации, относящиеся к разным множествам. Извлечение (рецепция) одного из вариантов данного множества сопровождается при этом ассоциативным восприятием («воспоминанием») варианта из другого множества).

          В-третьих, это узнавание образа – здесь речь идёт об оптимальном способе рецепции информации извне (или даже из блока памяти). Сюда же относятся и задачи оптимального сбора информации и создания «банка данных».

          Наконец, специальный круг задач связан с кодированием и декодированием информации. Здесь, в зависимости от цели, решаются задачи о создании наиболее трудно расшифровываемого кода или о наиболее простом кодировании.

          Перечисленные задачи, конечно, связаны друг с другом. Почти во всех них используется в той или иной мере синергетический подход.

          Однако существует проблема, которая в современной теории информации практически не обсуждается. Эта проблема связана с генерацией новой ценной информации и нуждается в синергетическом подходе более, чем остальные; на наш взгляд, она просто не может быть поставлена и решена без синергетики. Именно этой проблеме мы уделим основное внимание.

П.3. Что такое Синергетика?

          Можно дать несколько определений. Во-первых, буквальный – слово из греческого языка и в переводе означает «совместное действие». Наблюдаются новые явления, которые возникают от совместного действия нескольких разных факторов, когда каждый из них к этому явлению в отдельности не приводит. Термин «синергетика» предложен недавно немецким физиком Хакеном.

          Во-вторых, синергетику часто определяются как науку о самоорганизации. Это означает самопроизвольное усложнение формы, или в более общем случае, структуры системы при медленном и плавном изменении её параметров. Примером служат ячейки Бернара. Явление состоит в следующем. В плоском сосуде с жидкостью, равномерно подогреваемом снизу, самопроизвольно образуются конвективные вихревые течения, если мощность подогрева превосходит некоторое критическое значение. Вихри образуют регулярную структуру, представленную на рис. П.1.

img331

Рис. П.1

          Эта структура образуется в результате конкуренции (а также совместного действия) нескольких процессов: теплопроводности, гидродинамической конвекции и теплопередачи. Если мощность подогрева ниже критической, то никаких вихрей не образуется, жидкость остаётся однородной. Неоднородная регулярная структура возникает сама при увеличении параметра – температуры подогрева, в этом и заключается суть явления. Можно привести много примеров подобного рода: образование перистых облаков, геологических структур и т.п. Усложнение формы зародыша живого организма при его развитии (т.е. морфогенез) относится к тому же классу явлений. Сейчас также самопроизвольно возникающие образования объединяются под общим названием – диссипативные структуры (термин предложен Пригожиным).

          Примером самоорганизации во времени является самопроизвольное возникновение автоколебаний. Обыкновенные часы, как известно, стоят, если напряжение пружины ниже критического, но начинают работать в периодическом режиме с определённым периодом, если напряжение выше критического. Примеров таких множество. В физике и химии это периодические реакции. В живой природе к таковым относятся все биологические ритмы.

          Важный класс явление пространственно-временной самоорганизации – так называемые автоволны (термин предложен Р.В. Хохловым). Наиболее известный и в то же время яркий пример – распространение импульса по нервному волокну. В двух- и трёхмерной средах (например, в сердечной мышце) это же явление выглядит ещё ярче и богаче: тут могут образовываться спиральные волны, тороидальные структуры, концентрические волны и т.п. Здесь, как и в предыдущих случаях, явление исчезает (или возникает) при медленном изменении параметров активной среды. Можно было бы привести ещё много примеров самоорганизации и обсудить их более детально.

          Особый класс явлений самоорганизации – самопроизвольное возникновение хаоса, а из хаоса – регулярной структуры. Это мы обсудим позже и более детально в связи с генерацией информации.

Можно дать третье определение: синергетика – это наука о неожиданных явлениях. Это определение не противоречит, а дополняет предыдущие. Действительно, все перечисленные явления на первый взгляд неожиданны. При низкой температуре подогрева ячеек Бернара не было, а при увеличении её структура «вдруг» появилась.

          То же можно сказать об автоколебаниях: ритмический режим появляется «вдруг» при медленном плавном и монотонном изменении параметров. Можно сказать, что любое качественное изменение состояния системы (или режима её работы) производит впечатление неожиданного. При более детальном анализе выясняется, конечно, что ничего «неожиданно» в этом нет. Причиной «неожиданного», как правило, оказывается неустойчивость. Анализ, вскрывающий причину неожиданного явления, и составляет предмет синергетики.

          Метод (или математический аппарат), который используется в синергетике, – это теория динамических систем. Сам метод не нов, он развивается в физике и математике почти столетие. Более того, явления, о которых шла речь выше, также изучались давно. Таким образом, само слово «синергетика» не привнесло в науку ни нового предмета, ни нового метода. Тем не менее формирование синергетики как цельного научного направления произошло недавно, и это явление также закономерно (как и все синергетические явления). Польза его в том, что объединились на базе общих интересов и общего метода учёные, работающие в самых различных областях химии, физики, биологии и других наук.

          Математический метод синергетики, т.е. теория динамических систем, основан на дифференциальных уравнениях вида

                      img332,                    (П.5)

где ui – динамические переменные, например, концентрации реагирующих веществ; F(ui) – функции (а общем случае нелинейные), описывающие их взаимодействие в данной точке пространства; i – характерные времена изменения переменных ui. Член Diui описывает распространение динамических переменных ui в пространстве, в частности, их диффузию (Di – коэффициент диффузии). Уравнения (П.5) называют также уравнениями реакции с диффузией, поскольку они, в частности, описывают изменение концентрации веществ во времени и пространстве с учётом их диффузии и химических реакций. Принимают, что процессы, описываемые уравнениями (П.5), протекают в ограниченном пространстве – либо одномерном (реакции в трубке длиной L), либо двухмерном (реакции в плёнке шириной порядка L), либо в трёхмерном (реакции в сосуде, размеры которого порядка L). В частном случае, когда все динамические переменные распределены в пространстве равномерно, мы имеем систему обыкновенных дифференциальных уравнений:

                      img333,                    (П.6)

          Последнее имеет место, если «длины диффузии» img334 превышают пространственные размеры L системы. Уравнения (П.6), именуемые точечными, хотя и проще уравнений (П.5), тем не менее описывают многие неожиданные и интересные явления.

          Уравнения (П.5) и (П.6) являются динамическими, т.е. их решения, вообще говоря, однозначно определяются начальными и граничными условиями и, разумеется, свойствами и параметрами самих уравнений. Казалось бы, в такой ситуации ничего неожиданного быть не должно. Тем не менее характерные для синергетики неожиданности здесь возникают в случае, когда решения динамических уравнений теряют устойчивость. Обсудим это важное свойство детально.

          Интуитивное представление об устойчивости (или неустойчивости) есть у каждого. Неустойчиво, например, состояние карандаша, поставленного на остриё; неустойчиво также движение шарика по гребню. В то же время движение его по ложбине устойчиво. Более точное представление об устойчивости даёт анализ уравнений движения (и/или стационарных состояний). Этот анализ основан на исследовании поведения малых отклонений от соответствующего решения. Продемонстрируем это на примере стационарных состояний точечной системы. Стационарными являются состояния, соответствующие таким значениям переменных img335, при которых все функции F(img336) равны нулю. При этом значения ui не меняются со временем, поскольку все производные также равны нулю. Однако малые отклонения от стационарных значений u1 меняются со временем, и их изменение можно описать системой линейных дифференциальных уравнений:

                      img337,                    (П.7)

где img338. Решения её имеют вид

                      img339.                    (П.8)

          Здесь ij – коэффициенты, пропорциональные начальным отклонениям,  ~ u(0); они малы в меру малости последних. Величина j – числа, которые являются решениями алгебраического уравнения: det|aij – ijij| = 0, где ij – символ Кронекера такой, что ij = 0 при i ¹ j и ij = 1 при i = j. Величины j называются также числами Ляпунова и играют главную роль в анализе устойчивости.

          Если все числа Ляпунова отрицательны, то состояние устойчиво. Действительно, в этом случае все отклонения со временем уменьшаются, т.е. система стремится обратно к стационарному состоянию, даже если её немного отклонить от него. Если хотя бы одно из чисел Ляпунова положительно, то состояние неустойчиво. Действительно, тогда отклонения ui(t) возрастают со временем, причём достаточно быстро. Так, в упомянутом примере – карандаш на острие – среди чисел Ляпунова имеют положительные , по порядку величины равные » 10 с–1. Это значит, что за время порядка 10 с начальные отклонения возрасту в e100 » 1040 раз. Это колоссальная величина; она означает, что карандаш простоит на острие в течение 10 секунд только, если начальные отклонения были меньше 10–40 см. Это абсурдно малая величина: фиксировать начальное условие с такой точностью, разумеется, невозможно.

          В общем случае числа Ляпунова могут быть комплексными. Устойчивость определяется тогда знаком реальной части. Если среди чисел Ляпунова имеются равные нулю или чисто мнимые, то стационарное состояние называется нейтральным, при отклонении от него не появляются ни возвращающие, ни отклоняющие силы.

          Анализ неустойчивых движений основан на том же принципе: определяется временна́я зависимость малых отклонений от заданной траектории. Используются линейные по отклонениям уравнения ввысшими степенями uitt) пренебрегают), решения которых имеют вид

                      img340.                    (П.9)

          Числа Ляпунова при этом уже не постоянны, а зависят от времени. Траектория является неустойчивой, если среди чисел j(t) имеются такие, вещественные части которых положительны при t ® ¥.

          Подчеркнём важное свойство: числа Ляпунова являются характеристическими (или собственными) числами системы; они не зависят от начальных условий. Таким образом, устойчивость (или неустойчивость) – внутреннее свойство исследуемой системы, а не результат внешнего воздействия. Особенность его в том, что проявляется оно только при наличии малых внешних воздействий.

          Эта особенность привела к важным методологическим последствиям. Сейчас приходится пересматривать и подвергать ревизии некоторые, казалось бы, установившиеся в физике понятия. Обсудим два примера.

          Рассмотрим понятие абсолютно изолированной системы. Его можно ввести как предел неизолированной системы при стремлении к нулю величины внешнего воздействия. Для устойчивых систем такой предел существует и, следовательно, понятие остаётся в силе. Для неустойчивых систем такого предела, вообще говоря, не существует. Действительно, предел величины u(t) = et, ( > 0) при  ® 0 и t ® ¥ зависит от порядка стремления аргументов к своим пределам. Формально величину (которая отражает меру внешних воздействий) и время t можно считать независимыми. Однако, как мы убедились на конкретном примере, уже при сравнительно небольших временах фактор et возрастает столь сильно, что компенсировать его уменьшением – задача абсурдная. Суть дела здесь в том, что зависимость et очень сильна, конкурировать с ней практически невозможно. Поэтому для неустойчивых систем понятие «абсолютно изолированная система» теряет смысл; можно говорить лишь об относительно изолированной системе.

          Требует ревизии и понятие «причины». Обычно под причиной понимают начальные условия (или импульсные внешние воздействия), которые в соответствии с динамикой системы приводят к определённому результату – следствию. На этом языке слова «вскрыть причинно-следственные связи» означают «понять динамику промежуточных процессов». При этом негласно полагают, что причины и следствие соизмеримы. Для устойчивых (или нейтральных) процессов это всегда имеет место. В неустойчивых процессах ситуация иная: очень малая причина приводит к следствию, которое по масштабам с причиной несоизмеримо. Обычно говорят, что причиной явилась неустойчивость, а не малое начальное воздействие. При этом, однако, происходит весьма существенный сдвиг понятий: в качестве причины фигурирует внутреннее свойство системы, а не внешнее воздействие. Два примера. Хрустальная ваза стоит на середине стола (состояние устойчиво). Столкнули вазу со стола – она разбилась. Виноват «некто», а причина – его неловкие движения.

          Рассмотрим второй случай: ваза на краю стола (состояние близкое к устойчивому). Пролетела муха – ваза разбилась. В этом случае муху не обвиняют, а говорят, что причина события в неустойчивом положении вазы. Виноват тот, кто её поставил (так, чтобы никто не был виноват, в жизни обычно не бывает). В основе утверждения «событие произошло случайно» (т.е. без видимой причины) также лежит неустойчивость динамических процессов.

          Рассмотрим несколько примеров динамических систем, имеющих отношение к информации. Простейшая бистабильная система может быть описана одним уравнением

                      img341.                    (П.10)

          Имеются три стационарных состояния: при u = 0 и u = ±1. Среднее состояние неустойчиво (число Ляпунова равно  = +1); состояния u = +1 и u = –1 устойчивы. Уравнения для малых отклонений в этих состояниях имеют вид:

                      img342,                    (П.11)

а числа Ляпунова равны  = –3. [Систему (П.10) можно рассматривать как запоминающую ячейку с объёмом информации I = log2N = 1 бит; N = 2 – число устойчивых стационарных состояний]. Более сложная система с аналогичными свойствами состоит из двух уравнений:

                      img343                     (П.12)

          Для исследования таких систем используется очень удобный и наглядный метод – фазовый портрет. Он представлен на рис. П.2. В каждой точке плоскости (u1, u2) можно, используя правые части (П.12) вычислить приращения u1 и u2 за один и тот же интервал времени. Эти приращения определяют направление, в котором изменяются u1, u2 на плоскости, или, что то же, направление смещения выбранной точки (которую называют изображающей точкой) в плоскости (u1, u2). Действуя последовательно, можно найти траектории движения изображающей точки на фазовой плоскости (u1, u2).

img344

Двойные линии – изоклины; штрих-пунктирная линия – сепаратриса. Стационарные состояния:

(1) – неустойчивый узел; (2) – седло; (3) – устойчивый узел;

(4) – устойчивый узел

Рис. П.2. Фазовый портрет системы (П.12) при a = 1/3

          Набор траекторий, т.е. фазовый портрет, даёт полное представление о свойствах динамической системы. Для его построения удобно пользоваться линиями, на которых u1 = 0 или u2 = 0; эти линии называются главными изоклинами и определяются из условий:

                      img345; img346.                 (П.13)

          Стационарные состояния находятся на пересечении главных изоклин.

          В нашем примере изоклины вертикалей (u1 = 0) определяются из условия F1(u1, u2) = img347 = 0 и соответствуют линиям u1 = 0 и u2 = 1 – аu1. Изоклины горизонталей (u2 = 0) определяются из условия img348 = 0 и соответствуют линиям u1 = 1 – аu2 и u2 = 0 (см. рис. П.2). Система имеет четыре стационарных состояния. Первое расположено при u1 = u2 = 0 и неустойчиво. Оба числа Ляпунова положительны и равны 1,2 = ±1. Такая точка называется неустойчивым узлом.

Второе расположено на биссектрисе u1 – u2 = (1 + а)–1 и тоже неустойчиво, хотя одно число Ляпунова при этом отрицательно (1 = –1), а другое положительно (2 = (1 – a)/(1 + a) > 0). Такая точка называется седлом.           Имеются два устойчивых состояния: при u1 = а–1 = 3 =img349, (u2 = 0) и при u2 = а–1 = 3 =img350, (u1 = 0); в них оба числа Ляпунова отрицательны. Такие точки называются устойчивыми узлами. Вся плоскость разделяется на две области; в каждой из них траектории стремятся к соответствующему устойчивому состоянию. Линия, разделяющая области притяжения, называется сепаратрисой. В нашем случае в силу симметрии системы она совпадает с биссектрисой.

          Эта модель позволяет проследить процесс рецепции информации и возникновение её (генерацию). Так, если в силу внешних причин начальные условия не симметричны, то система  приходит к определённому стационарному состоянию – это рецепция информации.

          Если заранее выбор не предопределён, т.е. начальные условия симметричны и заданы на сепаратрисе, то система сама, по воле случая, выбирает одно из стационарных состояний – это генерация информации. Ниже мы вернёмся к этой системе и обсудим её более детально.

          Представление о бистабильной колебательной системе может дать движение шарика в ложбине с двумя лунками. Потенциальная энергия как функция координаты имеет два минимума и один максимум между ними; она может быть представлена, например, функцией

                      img351,

где k – коэффициент жёсткости (рис. П.3).

img352

Рис. П.3

          Уравнение движения шарика имеет вид

                      img353,                    (П.14)

где член v соответствует силе трения, v = du/dt – скорость, m – масса шарика. Уравнение (П.14) удобно представить в виде системы уравнений:

                      img354                     (П.15)

          Будем считать коэффициент трения малым, так что

                      img355.                    (П.16)

          Фазовый портрет системы (П.15) на плоскости (u,v) представлен на рис. П.4. Система имеет три стационарных состояния: при u = 0 и u = ±1. Состояние u = 0 – седло. Два крайних состояния устойчивы. Числа Ляпунова в них комплексны и равны

                      img356,                    (П.17)

где img357

img358

Рис. П.4

          Изоклина горизонталей (u = 0) совпадает с осью ординат; изоклина вертикалей v = k(uu3)/ (не приведена, чтобы не загромождать рисунок). Сепаратрисы представлены сплошными линиями. Стационарные состояния: (1) u = v = 0 – неустойчивое седло; (2) v = 0, u = +1 – устойчивый фокус; (3) v = 0, u = –1 - устойчивый фокус. Вдали от стационарных состояний области притяжения имеют сложную структуру. Толщина слоёв уменьшается при уменьшении коэффициента затухания .

          Это означает, что приближение к каждому из стационарных состояний совершается периодически, т.е. имеют место затухающие колебания с частотой и затуханием .

          Траектории на фазовом портрете вблизи стационарных состояний представляют собой спирали. Такие точки называются устойчивыми фокусами.

          Весьма интересно ведут себя сепаратрисы (жирные сплошные линии на рис. П.4). Они также представляют собой спирали. При малом значении (слабом трении) они достаточно близки друг к другу. При этом области притяжения – тонкие слои между сепаратрисами (для наглядности на рис. П.4 одна из них заштрихована). Малое, но конечное изменение начальных условий или малое внешнее воздействие может перебросить изображающую точку в соседний слой, что приведёт к изменению конечного состояния. Физический смысл этого прост: если в начале шарик находится достаточно высоко, то он совершит много колебаний, прежде чем остановиться. Предугадать, где он остановится (без точной фиксации начальных условий и точных расчётов), очень трудно; если же начальные условия расположены на сепаратрисе, то это и невозможно.

          Мы остановились на этом примере, чтобы продемонстрировать систему, в которой сепаратрисы заполняют фазовое пространство достаточно плотно (хотя и не сплошь).

          Если трение совершенно отсутствует ( = 0), то система (П.15) становится консервативной. При этом траектории представляют собой вложенные друг в друга замкнутые кривые. Числа Ляпунова вблизи состояний u = ±1 чисто мнимые, т.е. эти состояния нейтральные. Такие состояния называются центральными. В общем случае шарик не стремится к какому-либо состоянию, а продолжает колебаться на траектории, выбранной вначале.

          Один из самых интересных и важных разделов синергетики – так называемый динамический хаос. Как в рамках чисто динамической системы возникает хаотический режим с непредсказуемым поведением? Вопрос этот возник сравнительно давно, и история его не лишена драматизма. Людвиг Больцман поставил себе целью «вывести» законы термодинамики, в частности, закон возрастания энтропии, из законов классической механики. В качестве модели идеального газа он рассмотрел систему из многих шаров (число шаров N >> 1), которые двигаются и упорно сталкиваются друг с другом. Эта модель получила название «задача о бильярде». С точки зрения синергетики эта модель – динамическая система, содержащая 6N переменных (координаты и скорости всех шаров в трёхмерном пространстве). Соответственно фазовое пространство многомерно, т.е. содержит 6N измерений. Полная энергия системы сохраняется (как и полагается в классической механике), т.е. система консервативна. Это значит, что соударения абсолютно упругие и «трение» на участках между соударениями отсутствует, поскольку молекулы (т.е. шары) летят в вакууме.

          Поставленную задачу Больцман решил, т.е. вывел так называемую Н-теорему, продемонстрировал необратимое возрастание энтропии и выяснил микроскопический смысл самого понятия энтропии. Именно он показал, что энтропия пропорциональна логарифму вероятности застать систему в определённом состоянии (в котором положение и скорости всех шаров фиксированы). В процессе вычислений Больцман использовал гипотезу о том, что изображающая точка, двигаясь по фазовой траектории, равномерно заполняет всё доступное фазовое пространство. Гипотеза получила название молекулярного хаоса, она казалась вполне естественной, хотя в то время и не была обоснована. Результаты Больцмана вошли в науку как замечательное достижение человеческого разума. Тем не менее триумф Больцмана был омрачён. Его коллега и друг математик Цермело сказал, что Больцман в расчётах где-то допустил ошибку. Действительно, исходная система уравнений, которую использовал Больцман, консервативна и обратима во времени (как и любая механическая система без трения), в то время как конечный результат – возрастание энтропии – явно необратим. Следовательно, где-то в расчётах нарушена симметрия исходных положений (в данном случае симметрия относительно обращения времени); нарушать симметрию нельзя (во всяком случае без всяких оснований). Больцман не смог ответить Цермело и застрелился.

          Следующим был замечательный физик Эренфест. Он взялся за решение задачи и сформулировал проблему максимально чётко, но решить её не смог и застрелился. Ответ был дан (точнее, сформулирована основная идея ответа) только в 1945 г. молодым физиком Н.С. Крыловым. Главная идея сводилась к следующему: симметрия в динамических системах может нарушаться и молекулярный хаос может возникать, если динамические решения неустойчивы. Сформулировав эту идею, Н.С. Крылов скончался.

img359

Рис. П.5

          Последовательная математическая теория была развита в работах школы Колмогорова Д.В. Амосовым и Я.Г. Синаем. Было показано, что в задаче о бильярде любая траектория системы неустойчива, т.е. её фазовое пространство сплошь состоит из сепаратрис, а устойчивых состояний вообще нет. Продемонстрируем этот эффект.

          Соударение двух шаров радиуса r можно свести к задаче об отражении точки от выпуклой поверхности радиуса 2r. На рис. П.5 представлены две траектории, которые до соударения были отклонены друг от друга на малый угол i. Видно, что после соударения угол i+1 становится существенно больше.

          Его легко вычислить, используя закон упругого отражения и элементарную геометрию:

                      img360,                    (П.18)

где li – длина пробега шара между соударениями и i – угол удара.

          Отсюда видно, что при каждом соударении угол отклонения возрастает и после n-го удара будет равен

                      img361.                    (П.19)

          Число соударений n растёт со временем ~t, где – частота соударений. Поэтому формулу (П.19) можно представить в виде

                      (t) = (0)et,     (П.20)

где                   img362,                    (П.21)

а черта сверху означает усреднение по данной траектории. Величина является число Ляпунова; она положительна, и следовательно, отражение от выпуклой поверхности неустойчиво.

          Сделаем несколько замечаний.

1. Сказанное относится к любой траектории независимо от начальных условий. Это значит, что неустойчива любая траектория, или, другими словами, в задаче о бильярде любая траектория может считаться сепаратрисой. Здесь мы имеем дело с неустойчивостью особого типа – глобальной неустойчивостью.

img363

Рис. П.6

2. Число шаров в задаче существенной роли не играет. Глобальная неустойчивость имеет место, даже когда существует всего один шар в плоском бильярде, если хотя бы одна из стенок его выпукла внутрь. Такая система представлена на рис. П.6 и называется бильярдом Синая. В этой задаче фазовое пространство имеет четыре измерения (две координаты и две скорости). Траектория шара в обычном понимании в этом случае представляет собой проекцию фазовой траектории изображающей точки на обычное пространство.

3. Глобальная неустойчивость приводит к тому, что поведение системы становится хаотическим и всё доступное фазовое пространство заполняется равномерно. Такие системы по предложению Колмогорова называются перемешивающимися (К-системами). В них приобретает новый смысл понятие энтропии как меры неустойчивости. Симметрия по отношению к обращению времени в таких системах нарушается, и возникает необратимость опять-таки в связи с глобальной неустойчивостью.

4. В задаче о бильярде радиус взаимодействия имеет чётий смысл – это удвоенный радиус шаров r. Если расстояние между центрами шаров больше 2r – силы отсутствуют, если расстояние меньше – сила бесконечна.

          В реальных молекулах зависимость силы взаимодействия более плавная. Тем не менее можно ввести «эффективный радиус», если сила обратно пропорциональна, например, кубу расстояния (или зависит от него ещё более резко). В этом случае можно считать, что в формуле (П.21) r – эффективный радиус. В случае, когда сила обратно пропорциональна квадрату расстояния, эффективный радиус формально оказывается бесконечным. Говорят, что такие силы дальнодействующие. Именно такие силы гравитационного и электростатического взаимодействия.

          Полагая, что в формуле (П.21) r ® ¥, видим, что  ® 0. Это значит, что при дальнодействующих силах глобальная неустойчивость отсутствует, даже если число взаимодействующих объектов в системе велико. Этот вывод очень важен; действительно, число объектов, например, в Солнечной системе, достаточно велико: это все планеты, их спутники и т.д. Однако благодаря дальнодействию эти объекты не сталкиваются и движутся по вполне определённым траекториям. Глобальной неустойчивости и хаоса в этой системе нет, что и позволяет жить относительно спокойно.

          Таким образом, для возникновения молекулярного хаоса необходимым и достаточным условием является глобальная неустойчивость. Большое число не является ни необходимым, ни остаточным условием; это следует подчеркнуть, поскольку до недавнего времени (да и сейчас) в солидных книгах часто утверждалось обратное.

          Сейчас Больцман мог бы ответить Цермело вполне обоснованно и указать не только «причину» молекулярного хаоса, но и очертить область применимости этой гипотезы, в частности привести примеры, в которых она не реализуется.

          Теория динамического хаоса имеет также и методологическое значение. Ранее полагали, что молекулярный хаос – удобная форма описания, когда мы не знаем или не можем вычислить истинных траекторий. При этом неявно предполагалось, что вот ужо поднатужимся и сможем их предсказать. Теперь мы убеждены, что поведение неустойчивой траектории никто и никогда не сможет предсказать – это истинное незнание. Данное утверждение, кажущееся негативным, не менее ценно для науки, чем многие позитивные.

          Теория динамического хаоса не исчерпывается задачей с бильярдом. Сейчас найден целый класс промежуточных систем, в которых хаотический режим возможен лишь в некоторых областях фазового пространства. Такие области называют странными аттракторами. Фазовые траектории входят в эти области (откуда и термин «аттрактор»), но не выходят из них, а запутываются внутри (откуда и эпитет «странный»). Странные аттракторы можно рассматривать как стационарные состояния, но не стянутые в одной точке, а размазанные по области фазового пространства. В природе такие системы распространены гораздо шире, чем это можно было бы предположить.

          Наконец, в последнее время в синергетике стали активно изучать ещё одно явление – перемешивающий слой. Он играет очень важную роль в процессе генерации ценной информации, поэтому обсудим его подробнее.

          Речь идёт о диссипативных системах, имеющих несколько простых устойчивых стационарных состояний, таких, например, как в задаче о движении шарика в ложбине между двумя лунками. Однако начальные состояния задаются в такой области, что предсказать, в какое устойчивое состояние попадёт система, практически не возможно. В промежуточной области имеется хаотический слой. Строго говоря, он не является аттрактором, поскольку траектории, с одной стороны, в него входят, а с другой – выходят. Однако свойство «странности», т.е. непредсказуемости, в нём имеется.

          Человечество уже давно использует такие системы – это игровые машины: рулетка, китайский бильярд или просто орлянка.

          Простейший пример: несколько модернизированный бильярд Синая. Рассмотрим случай, когда в этом бильярде дно не плоское, а имеет два углубления; кроме того, учтём, что шар движется по дну с трением, хотя и малым. На рис. П.7 изображён такой бильярд, а также его вид сверху.

img364 img365
а) б)

Рис. П.7

          Нижняя кромка выпуклого отражающего борта бильярда находится выше как самих углублений, так и седловой точки между ними. Поэтому при малой скорости шара он не соударяется с выпуклым бортом и движение его устойчиво. Однако если в начале энергия велика, то шар будет сталкиваться с этим бортом до тех пор, пока его кинетическая энергия за счёт трения не понизится до нужного уровня. Всё это время движение шара будет неустойчивым и хаотическим.

          Таким образом, вначале, когда кинетическая энергия велика, задача близка к обычному бильярду Синая. Часть фазового пространства в этой области не сплошь сепаратрисная (поскольку конечных состояний всего два), но как сепаратрисные поверхности, так и сами траектории ведут себя хаотически. В конце при малой скорости область фазового пространства напоминает рис. П.4, где сепаратрисы ведут себя регулярно, хотя и близки друг к другу.

          Эту задачу можно рассматривать как «теорию рулетки». Конечно, это не та теория, о которой мечтали герои романов прошлого века и которая позволила бы предсказать (или угадать) результат по начальным условиям. Такой теории нет и быть не может. Однако этот пример позволяет проследить, когда и как здесь возникает ценная информация. Под информацией понимается указание лунки, в которую попадает шарик; ценной, очевидно, является та информация, которая повышает вероятность выигрыша. Смысл и популярность самой игры (как, впрочем, и всех азартных игр) в том, что она имитирует процесс генерации ценной информации, т.е. тот самый процесс, к которому часто приходится прибегать в реальной жизни.

          Как известно, в такой игре люди делают ставки. Ставка содержит указание номера лунки и, следовательно, является информацией. Ставку можно сделать в начале, до того как крупье запустил шарик. При этом номер лунки выбирается случайно (по принципу «внутренний голос сказал»), и это – генерация информации в чистом виде. Однако ценность этой информации нулевая, ибо вероятность выигрыша после того, как «внутренний голос сказал», но до запуска шарика, и априорная вероятность выигрыша одинаковые. [Согласно (П.4) при этом ценность V = 0]. Можно, однако, делать ставки и после запуска шарика, но до фатальных слов крупье: «Игра окончена». Если крупье зазевался, и шарик уже попал в лунку до его слов, то ставку можно делать наверняка. Но это уже не генерация информации, такого в рулетке практически не бывает. Более интересна ситуация, когда слова «игра окончена» звучат после того, как шарик вышел из перемешивающего слоя и вошёл уже в слой динамический, но в лунку ещё не попал. В этот момент результат уже можно предсказать однозначно. Для этого нужен прибор, фиксирующий координаты и скорости, и компьютер для расчёта траектории. Слова «внутренний голос говорит» здесь уже лишены смысла, если допустить, что упомянутые операции человек может проделать интуитивно (без ЭВМ) и достаточно быстро.

          В данном случае это не чистая генерация новой информации; к ней примешана рецепция информации о состоянии системы. Чаще всего слова «игра окончена» звучат в момент, когда шарик не вышел ещё из перемешивающего слоя, но близок к тому. В этот момент результат также можно предсказать, хотя и неоднозначно, а с некоторой вероятностью. Для этого также необходимы точные приборы и ЭВМ, которые, возможно, могут быть заменены интуицией. Именно в эти моменты можно говорить о генерации ценной информации.

          Сказать «игра окончена» до запуска шарика (или сразу после этого) невыгодно, поскольку при этом уменьшается число ставок. Это происходит не только из-за сокращения времени, отведённого на ставки; более важен, на наш взгляд, другой фактор. Многие люди играют в рулетку не только ради испытания судьбы, а также для того, чтобы проверить и использовать силу своей интуиции, т.е. способности предсказать траекторию шарика. Это удаётся делать, когда шарик уже близок к завершению своего пути. Преждевременное «окончание игры» исключает такую возможность.

          Мы остановились на примере рулетки для того, чтобы продемонстрировать роль перемешивающего слоя в процессе генерации ценной информации. В этом примере человек, делающий ставку, и рулетка выступают как два разных объекта.

          Ниже мы вернёмся к вопросу о генерации ценной информации на примере, в котором «ставки» делают элементы системы и сами же влияют на её движение к тому или иному состоянию.

          На примере рассмотренных динамических систем уместно снова вернуться к вопросу о микро- и макроинформации.

          Начнём с простых бистабильных систем (П.10) и (П.14), (П.15). Если изображающая точка в системе (П.10) [или шарик в системе (П.14), (П.15)] находится в области притяжения определённого устойчивого состояния, то через ограниченное время она обязательно окажется в нём. Число вариантов N задания начальных условий достаточно велико. Так, если начальные условия фиксируются с точностью  = u1u2, то число это равно N = / >> 1, где – фазовый объём области притяжения. (В системе (10) – площадь плоскости между биссектрисой и абсциссой). Соответствующая информация также велика.

          Однако выбор начальных условий из этого большого числа не запоминается системой. Действительно, все эти начальные условия ведут к одному и тому же результату. После того как система пришла к стационарному состоянию, невозможно указать из какой именно начальной точки она «явилась». Можно лишь утверждать что эта точка находилась в области притяжения.

          Незапоминаемую информацию мы условились (см. главу 1) именовать микроинформацией.

          Запоминаемая, т.е. макроинформация, в нашем случае сводится к выбору одного из двух конечных стационарных состояний. Количество макроинформации при задании начальных условий в любой точке области притяжения равно Iмакр. = log22 = 1, т.е. много меньше Iмикр. = log2/.

          Таким образом, с точки зрения микроинфорации задание начальных условий или конечного состояния эквивалентно.

          Отличия, однако, возникают при извлечении (или рецепции) макроинформации из системы. Рецептировать макроинформацию, т.е. указать, какое из двух состояний реализуется, можно до окончания процесса. Именно к этому стремятся игроки в рулетку. Правда, для этого нужно определить начальное (или моментное) состояние системы с большой точностью. Требования по точности особенно повышаются, если фазовое пространство расслоено сепаратрисами [как в системе (П.14), (П.15)]. В конце процесса результат очевиден и точность для его предсказания не нужна. Поэтому рецептировать макроинформацию до окончания процесса труднее, чем после.

          В задаче о бильярде Синая устойчивых стационарных состояний вообще нет. Выбор любого положения шара вскоре забывается и, следовательно, макроинформация здесь отсутствует. Присутствует только микроинформация. Это утверждение на первый взгляд звучит странно, поскольку бильярдный шар – объект макроскопический. Его положение и скорость можно измерить и «запомнить», например, сделав две последовательные фотографии.

          Для разрешения вопроса заметим, во-первых, что термин «микро» в нашем случае означает следующее: эта информации не запоминается в данной системе. Термин не имеет прямого отношения к масштабам объекта. Исторически он возник при обсуждении поведения молекул в сосуде с газом и тем был оправдан, поскольку молекула – объект микроскопический. Так он вошёл в теорию информации, хотя сейчас видно, что этот термин не вполне удачен.

          Во-вторых, пример с фотоснимками означает, что информация, являющаяся «микро» в одной системе, может быть рецептирована и превращена в макроинформацию в другой системе с другими свойствами. Использовать эту макроинформацию для предсказания поведения шара в далёком будущем (или прошлом) невозможно. Её можно использовать совершенно в иных целях. Например, два моментальных фотоснимка бильярда Синая могут играть роль пароля и ответа в детективном романе; и это будет макроинформацией. Ясно, однако, что эта информация другого качества и собственно к бильярду Синая прямого отношения не имеет.

          Наконец, в задаче о рулетке вначале в перемешивающем слое имеется только микроинформация. При выходе из этого слоя появляется макроинформация. Задача упоминавшегося «внутреннего голоса» – рецептировать макроинформацию в момент её появления.

 

В начало               Продолжение 
 

 

 

Добавить комментарий Сообщение модератору


Защитный код
Обновить