30
Успехи современной радиоэлектроники №10, 1997 50 УДК 621.391.01 Хаотические процессоры Ю. В. Андреев, А. С. Дмитриев, Д. А. Куминов Проанализирована роль хаоса и сложной динамики при обработке информации в нелинейных системах; рассмотрена модель хаотического процессора и показано, что с ее помощью можно осуществить ряд процессов обработки информации, вызываю- щих затруднения при традиционных подходах; приведены примеры реализации и применения хаотических процессоров для обработки изображений и текстов. In this review, we analyze the role of chaos and complex dynamics in information processing by nonlinear dynamical systems. We intro- duce a model of a chaotic processor and show that it can help us to implement certain information processing procedures that are diffi- cult to realize by traditional approaches. Examples of implementation and application of chaotic processors to picture and text processing are presented. Введение В обзоре рассматривается роль хаоса и сложной дина- мики в процессах обработки информации в нелинейных системах. Анализ экспериментальных данных и теоре- тических представлений об информационных процессах в живых системах позволяет выдвинуть и в значитель- ной степени обосновать гипотезу о существовании об- щих принципов и закономерностей обработки инфор- мации в системах со сложной динамикой, не зависящих от конкретного вида и реализации самих систем. На ее основе открывается возможность построения простых математических структур, реализующих различные процессы обработки информации с использованием хаоса. Показывается, что в качестве таких структур эф- фективно могут быть использованы одномерные и мно- гомерные отображения специального вида. Важным обстоятельством является то, что они пригодны не только для теоретического анализа и модельных оце- нок, но и для решения практических задач большой сложности. Таким образом, начинают проявляться кон- туры принципиально новых систем обработки инфор- мации универсальных хаотических процессоров. Качественные представления о процессах обработки информации на основе сложной динамики Роль хаоса в обработке информации мозгом человека и животных как научная проблема привлекает в послед- ние годы значительное внимание исследователей. Су- ществование детерминированных хаотических режимов в мозге было показано для ряда состояний активности человека на основе анализа электроэнцефалограмм (ЭЭГ) [1–7]. Электроэнцефалограмма в том или ином виде отражает информационные процессы в мозгу. По- этому указанные результаты свидетельствуют о том, что мозг работает с хаотическими сигналами и ведет обработку информации, используя сложную динамику такой нелинейной системы, как нейронная. Гипотезы о роли хаоса. К настоящему времени пред- ложен ряд гипотез о роли хаоса в обработке информа- ции живыми системами. Например, в [4, 5, 8] было вы- сказано предположение, что хаотическая динамика уве- личивает резонансную емкость мозга, обеспечивая чрезвычайно богатые отклики на внешнее воздействие. Результаты экспериментальных исследований ЭЭГ сти- мулировали поиск простых моделей, описывающих процессы, протекающие в коре головного мозга. Так, в [9] предложена простая таламокортикальная модель, имитирующая переходы, наблюдаемые при различных типах поведения человека. Этими же авторами в [10] рассмотрена модель ткани коры головного мозга при воздействии периодического входного сигнала, кото- рый имитирует активность таламуса. Показано, что в отсутствие входного сигнала динамика модели является турбулентной и десинхронизированной. Появление входного сигнала приводит систему к более когерент- ному пространственно-временному поведению, причем степень синхронизации увеличивается при уменьшении частоты входных колебаний. Такое поведение системы напоминает ЭЭГ человека в состоянии глубокого сна. С другой стороны, в отсутствие колебаний на входе гло- бальная активность модели подобна ЭЭГ человека в спокойном состоянии. Хаос рассматривается здесь как возможный механизм автореферативной логики и как машина кратковременной памяти на основе этой логи- ки. В [1114] исследовалась хаотическая активность в обонятельной системе кролика в процессе обучения. Обнаружено, что кролик запоминает запах, кодируя его пространственным, почти периодическим во времени паттерном потенциала обонятельной луковицы. Если животному предлагается неизвестный запах, активность обонятельной луковицы становится низкоразмерным хаосом. Это дало основание авторам сформулировать гипотезу о роли хаоса как "фильтра новизны".

Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Embed Size (px)

Citation preview

Page 1: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

50

УДК 621.391.01

Хаотические процессорыЮ. В. Андреев, А. С. Дмитриев, Д. А. Куминов

Проанализирована роль хаоса и сложной динамики при обработке информации в нелинейных системах; рассмотрена модельхаотического процессора и показано, что с ее помощью можно осуществить ряд процессов обработки информации, вызываю-щих затруднения при традиционных подходах; приведены примеры реализации и применения хаотических процессоров дляобработки изображений и текстов.

In this review, we analyze the role of chaos and complex dynamics in information processing by nonlinear dynamical systems. We intro-duce a model of a chaotic processor and show that it can help us to implement certain information processing procedures that are diffi-cult to realize by traditional approaches. Examples of implementation and application of chaotic processors to picture and text processingare presented.

Введение

В обзоре рассматривается роль хаоса и сложной дина-мики в процессах обработки информации в нелинейныхсистемах. Анализ экспериментальных данных и теоре-тических представлений об информационных процессахв живых системах позволяет выдвинуть и в значитель-ной степени обосновать гипотезу о существовании об-щих принципов и закономерностей обработки инфор-мации в системах со сложной динамикой, не зависящихот конкретного вида и реализации самих систем. На ееоснове открывается возможность построения простыхматематических структур, реализующих различныепроцессы обработки информации с использованиемхаоса. Показывается, что в качестве таких структур эф-фективно могут быть использованы одномерные и мно-гомерные отображения специального вида. Важнымобстоятельством является то, что они пригодны нетолько для теоретического анализа и модельных оце-нок, но и для решения практических задач большойсложности. Таким образом, начинают проявляться кон-туры принципиально новых систем обработки инфор-мации — универсальных хаотических процессоров.

Качественные представления о процессахобработки информации наоснове сложной динамики

Роль хаоса в обработке информации мозгом человека иживотных как научная проблема привлекает в послед-ние годы значительное внимание исследователей. Су-ществование детерминированных хаотических режимовв мозге было показано для ряда состояний активностичеловека на основе анализа электроэнцефалограмм(ЭЭГ) [1–7]. Электроэнцефалограмма в том или иномвиде отражает информационные процессы в мозгу. По-этому указанные результаты свидетельствуют о том,что мозг работает с хаотическими сигналами и ведет

обработку информации, используя сложную динамикутакой нелинейной системы, как нейронная.Гипотезы о роли хаоса. К настоящему времени пред-ложен ряд гипотез о роли хаоса в обработке информа-ции живыми системами. Например, в [4, 5, 8] было вы-сказано предположение, что хаотическая динамика уве-личивает резонансную емкость мозга, обеспечиваячрезвычайно богатые отклики на внешнее воздействие.Результаты экспериментальных исследований ЭЭГ сти-мулировали поиск простых моделей, описывающихпроцессы, протекающие в коре головного мозга. Так, в[9] предложена простая таламокортикальная модель,имитирующая переходы, наблюдаемые при различныхтипах поведения человека. Этими же авторами в [10]рассмотрена модель ткани коры головного мозга привоздействии периодического входного сигнала, кото-рый имитирует активность таламуса. Показано, что вотсутствие входного сигнала динамика модели являетсятурбулентной и десинхронизированной. Появлениевходного сигнала приводит систему к более когерент-ному пространственно-временному поведению, причемстепень синхронизации увеличивается при уменьшениичастоты входных колебаний. Такое поведение системынапоминает ЭЭГ человека в состоянии глубокого сна. Сдругой стороны, в отсутствие колебаний на входе гло-бальная активность модели подобна ЭЭГ человека вспокойном состоянии. Хаос рассматривается здесь каквозможный механизм автореферативной логики и какмашина кратковременной памяти на основе этой логи-ки.

В [11–14] исследовалась хаотическая активность вобонятельной системе кролика в процессе обучения.Обнаружено, что кролик запоминает запах, кодируя егопространственным, почти периодическим во временипаттерном потенциала обонятельной луковицы. Еслиживотному предлагается неизвестный запах, активностьобонятельной луковицы становится низкоразмернымхаосом. Это дало основание авторам сформулироватьгипотезу о роли хаоса как "фильтра новизны".

Page 2: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

51

Из других гипотез, относящихся к функциональнойроли хаоса, можно отметить следующие: нелинейныйклассификатор паттернов [12, 14], катализатор обуче-ния [11, 15], интерпретатор стимулов [16], сканирова-ние памяти [17, 18].Информация и динамические системы. Исследова-ние систем с детерминированным хаосом также свиде-тельствуют о тесной связи между теорией динамиче-ских систем и информационными процессами. Ряд ос-новополагающих результатов динамической теорииформулируется применительно к объектам, так илииначе связанным с информацией. Например, в теоремеА. Н. Шарковского [19] речь идет о существованиисчетного числа циклов с фиксированной структурой вдинамических системах типа одномерного отображе-ния. Дальнейшие результаты по этому вопросу приве-дены в [20, 21].

Счетные множества периодических движений воз-никают и в системах с непрерывным временем [21–24].Для описания характера поведения таких систем ис-пользуется аппарат символической динамики [25], ос-новами которого являются понятия сложности и ин-формации [26, 27].

Так И. Прокаччи в [28] высказал ряд идей, указы-вающих на связь между хаосом, неустойчивыми перио-дическими орбитами и информационными свойствамидинамических систем.

Первая идея заключается в том, что хаотические ор-биты могут быть организованы вокруг скелета неустой-чивых периодических орбит.

Вторая идея показывает, что каждая периодическаяорбита (точка) может быть универсально закодирована.Аппарат, используемый для кодирования, — символи-ческая динамика.

Третья идея исходит из того, что существует грам-матика, определяющая разрешенные слова или перио-дические орбиты. Показано, что грамматика можетбыть универсальной. Понятие универсальности заклю-чается в том, что различные системы, принадлежащиеодному и тому же универсальному классу, в соответст-вующих точках пространства параметров будут иметьодно и то же распределение периодических орбит.

Четвертая идея состоит в предположении о сущест-вовании связи между периодическими точками и ихсобственными значениями, с одной стороны, и метри-ческими свойствами странного аттрактора, — с другой.Хаотическое движение рассматривается автором какслучайное блуждание между периодическими орбита-ми, каждая из которых вносит вклад в соответствующиевероятности посещения. Чем более неустойчива перио-дическая орбита, тем меньше ее вероятность.

Наконец указывается, что периодические орбиты иих собственные значения можно извлечь непосредст-венно из экспериментальных сигналов. Алгоритм, по-

зволяющий делать это, приведен в [29]. Некоторые де-тали перечисленных идей рассмотрены в [30, 31].

В [32] анализируется вопрос об информационныхпотоках в одномерных отображениях. Автор ссылаетсяна исследования [33–35], в которых аргументируетсятот факт, что информация является фундаментальнойконцепцией в теории динамических систем и хаоса. Вчастности, чувствительность к начальным условиямстрого относится к созданию информации. Далее онрассматривает динамическую систему, описываемуюотображением f интервала в себя и исследует, как ите-рация f индуцирует специальный процесс, который ав-тор и называет информационным потоком.

В [36] рассматривается концепция и определяютсяразличные типы скоростей информационного потока,которые можно вычислить с помощью компьютеров.При этом под скоростью информационного потока под-разумевается объем новой информации в единицу вре-мени. При исследовании системы связанных одномер-ных отображений, полученных из экспериментальныхданных в реакции Белоусова–Жаботинского, авторамипоказано, что скорость информационного потока экви-валентна колмогоровской энтропии KS.

Другому аспекту информационного потока посвя-щена работа [37], в которой отмечается следующаяособенность информации, порождаемой в численномэксперименте: изначально локализованная информацияраспространяется по всей системе с течением времени.Первый тип информационной структуры обнаружен влогистическом отображении и характеризуется линей-ной релаксацией начальной информации. Переменнаятеряет постоянный объем начальной информации накаждой итерации отображения. Второй тип характери-зуется экспоненциальной релаксацией начальной ин-формации. Переменная теряет постоянную долю ос-тавшейся информации на каждой итерации отображе-ния. Этот тип информационной структуры обнаружен вотображении Белоусова–Жаботинского и типичен, сточки зрения авторов, для перемежающегося хаоса.

Еще одна причина, связанная с необходимостью по-смотреть на динамический хаос, с информационнойточки зрения — наличие естественных объектов с де-терминированной хаотической динамикой [38, 39] илисо смешанной динамикой, содержащей в себе как де-терминированный хаос, так и случайный процесс. Какправило, имеется одномерный сигнал, и требуется егообработка для получения более или менее детальнойинформации о свойствах динамики объекта. Такая об-работка представляет собой способ получения инфор-мации об изучаемом объекте по хаотическому процес-су, происходящему в нем.Механизм обработки информации в системах с хао-сом. Обсудим представления о механизмах обработкиинформации с использованием сложной динамики, сле-дуя в основном качественному рассмотрению Дж. Ни-

Page 3: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

52

колиса [40–42] и анализу этой проблемы, проведенномуУ. Фримэном с соавторами [11, 14, 43].

При проектировании "самоорганизующихся" системпервостепенное значение приобретает определение"теоретического минимума" сложности "аппаратнойреализации" систем Ch, необходимого для обеспечениязаданного функционального репертуара (сложности"программного обеспечения" Cs). В общем случаепредполагается, что кривая Ch = f (Cs) монотонно воз-растает, причем крутизна роста определяется конкрет-ным "механизмом межэлементных связей" или архитек-турой данной системы. Это убеждение традиционносвязано с техникой связи, в которой акт обработки ин-формации включает в себя последовательность "расши-рения" и "сжатия" пространства состояний, т.е. увели-чения и последующего сокращения числа степеней сво-боды передаваемого сигнала.

Действительно, с передающей стороны усилия, на-правленные на эффективное кодирование, требуют ор-тогональности "слов" — элементов репертуара пере-датчика. Это достигается путем увеличения шириныполосы W и времени передачи T0, вследствие чего воз-растает и размерность 2WT пространства состояний, вкотором отдельные слова (временные сигналы, пред-ставленные в дискретном цифровом виде с помощьютеоремы о выборке — теоремы Котельникова) фигури-руют в качестве гипервекторов.

На принимающем конце происходит "сжатие", сво-дящееся к серии сверток приходящего (зашумленного)сигнала и каждого члена (слова) из репертуара передат-чика. Так как отдельные слова взаимно ортогональны,перечисленные выше операции позволяют приемникуобнаруживать и исправлять многократные, хотя и ко-нечной кратности, ошибки, которые встречаются в при-нятом сигнале из-за шума в канале.

Однако биологические организмы даже с весьмапростой нервной системой ("аппаратной реализацией")обладают весьма внушительным и сложным репертуа-ром режимов поведения. Возникает подозрение, чтосуществуют системы, которые обрабатывают информа-цию по алгоритмам, построенным по другим принци-пам, чем созданные человеком артефакты, т.е. не наповышении сложности "аппаратной реализации" во имядостижения большей сложности поведения.

Новый альтернативный теоретический принцип,удовлетворяющий требованию сочетания широкогофункционального репертуара с очень простой "аппара-турной реализацией", основан на том, что информациюпорождает не только утрата системой степеней свобо-ды, но и увеличение разрешающей способности в сис-темах с малым числом степеней свободы.

Надежная обработка информации опирается на су-ществование "хорошего" кода или языка: набора рекур-рентных правил, порождающих информацию (напри-мер, апериодические строки символов) на данном ие-

рархическом уровне и сжимающих ее на более высокомкогнитивном (познавательном) уровне. Чтобы удовле-творить этим требованиям, язык должен в любой мо-мент находить оптимальное соотношение между сто-хастичностью (разнообразием) и способностью обна-руживать и исправлять ошибки (памятью).

В [44] подчеркивается, что в случае аттрактора, мо-делирующего некоторые аспекты когнитивной системы,необходимо выполнение двух основных требований:большой емкости хранения и хорошей сжимаемости.Если обратиться к простейшим аттракторам (в каком-либо N-мерном пространстве), а именно к устойчивойточке и предельному циклу, имеющим информацион-ную размерность нуль и единицу, то они, по мнениюавтора, очень плохи для хранения информации из-замалой емкости. Но поскольку они обладают только не-положительными ляпуновскими экспонентами, ониидеальны как средство, сжимающее информацию. Таккак странные аттракторы имеют комбинацию положи-тельных и отрицательных ляпуновских экспонент, то внекоторой степени могут удовлетворять обоим требо-ваниям. Они могут обладать значительной информаци-онной емкостью, и это делает их подходящими для хра-нения информации. С другой стороны, будучи "аттрак-торами", т.е. обладая также отрицательными ляпунов-скими экспонентами λ– такими, что – λ– > λ+, могутслужить для сжатия информации.

В любом когнитивном процессе приемник предна-значен для "разгадывания" кода приходящего сигнала,т.е. "сжатия" для максимально возможного абстрагиро-вания содержащегося в сигнале описания и достиженияза счет этого более высокой предсказуемости. Дости-жение сжатия сводится к формированию коллективныхсвойств из переменных анализируемого сигнала.

Можно утверждать, что в окрестности стационарныхсостояний и периодических орбит "когнитивная маши-на" останавливается. Возникает зацикливание, но функ-ция плотности вероятности узкая, и режим среднегополя дает вполне удовлетворительное приближение:абстракции формируются безупречно.

В окрестности бифуркаций "стационарные состоя-ния ⇔ предельные циклы ⇔ хаос" когнитивная машиназаходит в тупик: функция плотности вероятности"взрывается", режим среднего поля перестает сущест-вовать, и абстракции, т.е. кросс-корреляции, не могутформироваться однозначно. Система на уровне коллек-тивных свойств турбулентна в том смысле, что требуетдля своего описания столько же степеней свободы,сколько их было на уровне индивидуальных (неколлек-тивных) переменных. (У функции с плотностью вероят-ности f(х) появляются два или несколько "горбов" илиона приобретает гиперболическую форму (и тогда ме-диана перестает быть наиболее вероятным значением)."Макроописание" ведется на уровне, требующем столь-ко степеней свободы моментов распределения вероят-

Page 4: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

53

ности, сколько их необходимо на более низком иерар-хическом уровне. Именно это обстоятельство имеютввиду, когда говорят, что динамика на двух иерархиче-ских уровнях перемешивается, описания, принадлежа-щие двум различным иерархическим уровням вблизиточки бифуркации становятся неотличимыми.)

В самоподдерживающемся устойчивом хаосе ситуа-ция не обязательно такая же, ибо информация произво-дится по одним переменным, а сжимается по другим.Тем не менее перспектива широкой функции распреде-ления вероятности с многими пиками в какой-то мереоправдывает нежелание применять предлагаемую мо-дель в качестве надежного процессора. В [40] авторсчитает, что наилучшей моделью такого процессорабыл бы режим перемежаемости и метастабильного хао-са.

Перемежаемость моделирует способ действия ска-нирующего устройства, неспособного достичь идеаль-ного захвата или устойчивой точки синхронизации. Втот момент, когда предельный цикл в пространстве со-стояний должен замкнуться, вмешивается конкури-рующий процесс и разрушает регулярную траекторию.Затем система вновь возвращается в окрестность пре-дельного цикла (возможно другого), и все начинаетсясначала. Через некоторое время происходит новая"вспышка", система переходит к "турбулентному хао-су"; после чего образуется другой предельный цикл, ит.д. Временная последовательность смены хаотическихи регулярных режимов носит случайный характер.

Под метастабильным хаосом, реализующимся в не-которых окнах пространства управляющих параметров,понимается переходный режим, время затухания кото-рого имеет экспоненциальное распределение. Посленачального периода нерегулярных колебаний почтикаждая траектория выходит на периодическую орбиту.

В некоторых ситуациях режим метастабильногохаоса может переходить в стационарный или в другойрежим, также хаотический, но обладающий существен-но иными свойствами. Возможен и такой случай, когдановый режим оказывается метастабильным и переходитв третий или возвращается к исходному режиму.

Информационный процессор (аналоговый или циф-ровой) представляет собой когнитивное устройство,которое выявляет и отождествляет параметры неиз-вестного сигнала, или "образа", обычно искаженноготепловым равновесным шумом. Для решения этой зада-чи процессор должен выполнить три разные операции втакой последовательности.

1. Произвести "изнутри" самого себя широкий наборразнообразных (пространственно-временных) образов(шаблонов).

2. Установить кросс-корреляцию, т.е. "сжать" каж-дый из этих образов с поступающим сигналом.

3. На основании ранее установленных критериев"проверки гипотез" или "консенсуса" выбрать или от-

фильтровать образ, дающий наибольшую кросс-корреляцию с неизвестным сигналом.

При слежении за сигналом существенное значениеимеет измерение времени живым организмом —"тай-минг". Это означает, что существование самоподдер-живающихся нелинейных диссипативных осциллято-ров, т.е. элементов с притягивающим поведением, науровне "аппаратной реализации" процессора являетсяпредпосылкой когнитивной операции.

Функционально устойчивый осциллятор в противо-положность статичным устройствам (типа переключа-телей с двумя состояниями "включено"-"выключено")обладает рядом эволюционных преимуществ: напри-мер, он может служить датчиком времени, динамиче-ским хранилищем информации (динамической памя-тью) и при запуске с помощью очень простых раздра-жителей вызывать необычно широкий спектр сложныхсхем поведения.

Из соображений экономичности необходимо, чтобылокально порождаемые динамические структуры —аттракторы процессора не существовали в "готовомвиде", а возникали после запроса (запуска) поступаю-щими извне стимулами из некоторого запаса динамиче-ских элементов в соответствии с основополагающимивесьма простыми правилами (алгоритмами или "схема-ми") комбинирования этих элементов.

Дж. Николис так описывает возможную модельпроцессора, действующего в мозгу. Отдельные нейрон-ные осцилляторы в коре головного мозга образуютупомянутый выше запас динамических элементов.Кроме того, таламокортикальный осциллятор являетсяадаптивным элементом, выполняющим две различныеоперации.

1. Он выполняет роль ритмоводителя, приводящегок образованию внутренних синхронизированных, иликогерентных пространственно-временных нейронныхструктур. Обеспечивая когерентность таких нейронныхгрупп, ритмоводитель помогает им подниматься надуровнем окружающего теплового шума и выделятьсясреди существующих соседних нейронных образованийза короткие интервалы времени (о возможной ролиритмоводителя см. также [45]).

2. Он создает рекуррентные правила, управляющиепоследовательностью появления этих когерентныхструктур в соответствии с некоторой мультиплекснойсхемой с разделенным временем.

Можно лишь теоретизировать о том, как такой про-цесс самоорганизации и образования категорий осуще-ствляется через множество сосуществующих странныхаттракторов в когнитивном аппарате. Каждый аттрак-тор притягивает к себе (и тем самым сжимает) узкоеподмножество "начальных условий", совокупность ко-торых составляет множество всех внешних сигналов.

Попытаемся теперь в общих чертах описать дина-мический эквивалент информационного канала, осуще-

Page 5: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

54

ствляющего отображение между множеством сигналов"передатчика" и множеством режимов "приемника",или когнитивного устройства, играющего роль банкапамяти. (Напомним, что согласно "статической" теорииинформации Шеннона информационный канал осуще-ствляет взаимно однозначное отображение между пере-датчиком и приемником и отнюдь не связан с актомкогнитивной деятельности. Единственное назначениеинформационного канала сводится к копированию пе-редаваемых сигналов, какие они есть, на принимающемконце с максимальной надежностью).

Предположим, что множество передаваемых сигна-лов отождествляется с множеством начальных условийв N-мерном пространстве состояний, где N — числопеременных, описывающих рассматриваемое явление.Приемник (когнитивный аппарат) отождествляется смножеством аттракторов гораздо меньшей размерно-сти, погруженных в качестве инвариантных компакт-ных подмножеств в то же самое N-мерное пространствосостояний.

Падение на аттрактор по истечении короткого илипродолжительного переходного периода в пространствесостояний соответствует акту все большего абстрагиро-вания сигнала (его сжатию). Возникает вопрос: чтоможно сказать о динамическом аналоге, изоморфном"каналу"? Как множество начальных условий (сигна-лов) распределено среди различных категорий, т.е. сре-ди более чем одного сосуществующего аттрактора (ста-ционарных состояний, предельных циклов, торов илистранных аттракторов)? Необходимо иметь в виду, чтоотображение между сигналами и аттракторами или"шаблонами" не взаимно однозначно: целые подмноже-ства (начальных условий) области притяжения стягива-ются к одному и только к одному аттрактору. Возможени другой вариант: некоторые точки области притяжениямогут вечно или бесконечно долго описывать переход-ную траекторию, не притягиваясь к аттрактору, илидаже устремляться к бесконечности. Как установить,какое из подмножеств области притяжения "приземлит-ся" на аттрактор?

Очень простой частный случай (два простых аттрак-тора, два стационарных состояния) рассмотрен в [46]:проанализировав двумерное необратимое отображение–"канал", авторы обнаружили фрактальную границу ме-жду двумя подмножествами области притяжения.

Существенным результатом их работы стало ясноепонимание того, что точность, с которой известно дан-ное начальное условие, может иметь решающее значе-ние для предсказания конечного аттрактора, на которыйвыходит данное начальное состояние. Это означает, чтоиногда для надежного предсказания того аттрактора"компрессора", с которым связано наблюдаемое явле-ние, требуется необычайно высокая точность.Дж. Николис полагает, что в рассматриваемой моделимножество аттракторов играет роль хранящихся в ди-

намике мозга "эталонных структур", с которыми срав-ниваются ("свертываются") поступающие извне сигна-лы. Этот процесс может быть осуществлен на однойиерархической ступени; на следующей ступени аттрак-торы (если их много на нижнем уровне) образуют гипе-робласть притяжения для новой иерархии меньшегочисла гиператтракторов и т.д.

Зная размерность пространства состояний посту-пающих сигналов и фрактальные размерности соответ-ствующих аттракторов, можно в каждом отдельномслучае оценить (среднюю) степень сжатия, которомуподвергается данный N-мерный сигнал. Кроме того,исследуя топологию сепаратрис в области притяжения,можно вычислить неопределенность (или количествоизвлекаемой информации), связанную с той категорией,которой принадлежит данный сигнал.

Сходный с Дж. Николисом взгляд на природу обра-ботки информации в нейронных системах и мозге раз-вивается У. Фримэном [11, 14, 43]. Кроме качественно-го анализа он использует экспериментальные данные ирезультаты компьютерного моделирования, относящие-ся к исследованию обонятельной системы животных.Отмечается, что современные коннективистские модели(модели взаимодействия) дают новое, альтернативноеобъяснение цифровому компьютеру как модели дляфункций мозга.

Данные исследований ЭЭГ по обонятельной системепредполагают, что мозг может использовать вычисли-тельные механизмы, подобные тем, которые найдены вконнективистских моделях. Авторы обсуждают этиданные и развивают модель нейронной динамики, свя-занной с распознаванием и различением запахов. Ре-зультаты их исследования указывают на существованиесенсорной и специфической моторной информации вфизическом пространстве ЭЭГ-активности и влекут кновым философским метафорам и технике анализа.Особое внимание уделено в модели хаотической ней-ронной активности. Выдвигается гипотеза, что хаотиче-ское поведение служит существенным базовым состоя-нием для нейронного перцептуального аппарата, ипредлагается механизм для получения новых формструктурной активности, соответствующей новым за-поминаемым запахам.

В [14] проведено компьютерное моделирование ди-намики распределенной модели обонятельной системы,которое помогает понять роль хаоса в биологическомраспознавании структур. Модель представляет собойсистему связанных нелинейных дифференциальныхуравнений со многими переменными и параметрами,которые допускают множественные хаотические со-стояния низкой размерности.

Соответствующее множество параметров идентифи-цировано с помощью компьютерных экспериментоввместе с биологическими измерениями. Модель обоня-тельной системы содержит широкий глобальный хаоти-

Page 6: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

55

ческий аттрактор с множественными "крыльями". Цен-тральная часть аттрактора представляет собой базиснуюхаотическую активность, которая моделирует ЭЭГ-активность обонятельной системы при нулевом входевозбуждения, так что для системы нет необходимости"уходить от" или возвращаться к "дремлющему" равно-весному состоянию каждый раз, когда на входе появля-ется сигнал (через ингаляцию). Каждое из крыльев мо-жет быть либо близким к предельному циклу (узкопо-лосный хаос), либо широкополосным хаосом.

Воспроизводимая пространственная структура вбли-зи каждого предельного цикла определена шаблоном,сформированным в системе. Новый вход без шаблонаактивизирует систему либо к ее воспроизводимомукрылу, близкому к предельному циклу, либо к широко-полосному хаотическому крылу. Распознавание струк-туры в системе может рассматриваться как переход отодного крыла к другому, что продемонстрировано вкомпьютерном моделировании. Временные серии де-монстрации аттрактора являются ЭЭГ-подобнымиструктурами с фрактальными размерностями.

Остановимся на важных результатах компьютерногомоделирования.М а с ш т а б н а я и н в а р и а н т н о с т ь . Онаважна для практических приложений и правдоподобно-сти модели. Разные виды живых организмов имеютразличное число нейронов, кроме того, у каждого жи-вотного число нейронов уменьшается с возрастом.Масштабно-инвариантное свойство состоит в том, чтопринципы распознавания структур в различных систе-мах подобны. Это продемонстрировано на примерахмоделей с различным числом нейронов [14].Н е з а в и с и м о с т ь о т н а ч а л ь н ы х у с -л о в и й . Искусственную систему можно повторновозвратить к конкретным начальным условиям. Однакоэто невозможно для живого организма. Поэтому прав-доподобно предположить, что восприятие и познание ворганизме не зависит от начальных условий до тех пор,пока начальные условия находятся в определенныхпределах. Этим свойством предложенная модель обла-дает. Независимость от начальных условий означает,что каждое крыло имеет собственный бассейн. Это де-лает возможным распознавание структур, так же как ивоспроизведение структуры по ее части. Отмеченноесвойство позволяет системе также классифицироватьнепрерывные последовательности стимулов.

Авторы предполагают, хотя и не имеют строгих до-казательств, что биологические хаотические системыпроизводят распознавание структур лучше, чем систе-мы, находящиеся в равновесии и в состоянии регуляр-ных колебаний. Это связано с тем, что хаос производит"беспокойное" состояние, которое позволяет биологи-ческой сенсорной системе достичь любого состояния ипроизводить "изменчивость", и дающее системе воз-можность быстро откликаться на любые стимулы, т.е.

хаос служит мозгу для поддержания основы неожидан-ных и непредсказуемых новых входов.

Сходные выводы сделаны и в [66] на основе анализафункционирования систем, состоящих из малого числанейронов. В работе приводятся аргументы в пользу то-го, что сам по себе динамический хаос живым систе-мам, возможно, и не нужен, однако принципиальныммоментом для различных нервных структур являетсятот факт, что они работают на границе (а зачастую и заграницей) неустойчивости. Это и дает им исключитель-ные возможности в адаптивности, способность совер-шать быстрые переходы с одной моды поведения надругую и само разнообразие мод.

Еще одним направлением изучения процессов обра-ботки информации на основе сложной динамики явля-ется исследование искусственных нейроподобных сетейс хаотическим поведением. Так, в [16] предлагаетсямодель нейронной цепи, которая может формироватьпамять без "учителя" для последующего к ней (памяти)обращения. Показано, что макроскопический порядокмодели является детерминированным хаосом, образо-вавшимся вследствие разрушения тора, и эта разновид-ность хаоса может быть эффективно использована дляпоиска следов памяти. Предварительные вычисленияэффективности памяти, определяемой как средняя ско-рость поиска следа всех запомненных образов, показа-ли, что хаотические поиски являются гораздо болееэффективными по сравнению с квазипериодическими.Полученные авторами результаты означают, что детер-минированный макроскопический хаос используетсякак средство поиска в памяти и вполне может иметьместо в мозговой деятельности.

В [47] представлены результаты исследования ней-ронной модели, которая распознает: а) известные вход-ные образы при низких уровнях шума; б) недостаточнохорошо известные входные образы при более высокихуровнях шума (имея на выходе или сильно зашумлен-ное состояние, или хаотическое). Авторы вводят новыйкласс случайной динамики нейронных цепей, которыйсодержит механизмы проверки новизны и контрольуровня шума, а также допускает саморегуляцию точно-сти распознавания.

Работа [48] посвящена исследованию динамики ней-ронной цепи с дискретным временем. В работе обсуж-дается проблема использования рекуррентной нейрон-ной цепи как временной ассоциативной памяти. Под-черкивается, что нейронные цепи с хаотической дина-микой могут быть важны в этом случае. Так, полезнымдля ассоциативной памяти могло бы оказаться явлениеперемежаемости. При таком сценарии перехода к хаосуфиксированная точка совершает тангенциальную би-фуркацию и результирующий аттрактор имеет длиннуюрегулярную фазу, перемежаемую короткими всплеска-ми нерегулярного движения. Это свойство могло быбыть полезным для ассоциативной памяти с временной

Page 7: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

56

зависимостью, так как оно обеспечило бы механизмдвижения от фазы памяти к хаосу спустя некоторыймомент времени после обращения к ней без каких-либовнешних стимулов.

Еще один пример исследования динамики нейрон-ных сетей приведен в [49], где рассматриваются корре-ляции между записываемыми образами как параметрыпорядка.

Таким образом, качественный анализ, эксперимен-тальные данные, основанные на ЭЭГ, и результатыкомпьютерного моделирования показывают, что многиеявления и процессы в системах с динамическим хаосомиспользуются живыми организмами и могут приме-няться в искусственных системах для обеспечения ихфункционирования в изменяющейся окружающей сре-де. Последнее означает эффективность систем с хаосомпри обработке информации в широком смысле. Вместес тем правомерность тех или иных гипотез о механиз-мах обработки информации на основе хаоса и сложнойдинамики может быть доказана или опровергнута толь-ко при анализе конкретных моделей. Поэтому возника-ет потребность в разработке простых математическихмоделей, отражающих основные характерные свойствапроцессов обработки информации в нелинейных дина-мических системах.

Чрезвычайно плодотворными моделями в различныхзадачах нелинейной динамики являются одномерныеотображения отрезка в себя. Исходя из идеи общностизакономерностей информационных процессов в нели-нейных системах со сложной динамикой, рассмотриммодели обработки информации, основанные на этихпростейших динамических системах.

Модель хаотического процессора

Постановка задачи. Создание модели хаотическогопроцессора предполагает:

выбор типов аттракторов, пригодных для работы синформацией;

выбор динамических явлений, необходимых дляреализации базовых операций обработки информации сиспользованием хаоса;

разработку принципов, позволяющих ставить вовзаимнооднозначное соответствие информацию и тра-ектории динамической системы;

разработку конкретных математических моделей,позволяющих работать с информацией как с траекто-риями отображений и управлять характером динамиче-ских явлений с целью осуществления базовых операцийхаотического процессинга;

создание программных комплексов для симуляциихаотических процессоров на компьютерах;

исследование модели хаотического процессора; решение с помощью хаотического процессора

сложных задач, слабо поддающихся решению при тра-

диционных подходах.Аттракторы и бифуркационные явления в одно-мерных отображениях. Имеется множество динамиче-ских систем, которые могут производить хаос. Однако вданном разделе речь будет идти только о преобразова-ниях одного типа — одномерных отображениях, кото-рые могут быть записаны в виде

Xn+1 = ƒ (Xn, α), (1)

где α — вектор параметров. Эта модель может пока-заться очень ограниченной не только в смысле базовоймодели для обработки информации, но и как модельхаотической системы. Однако оказывается, что это нетак. Фактически отображение (1) может обладать чрез-вычайно широким набором явлений сложной динамики,присущим хаотическим системам общего вида, и, какстанет ясно из дальнейшего, может служить полноцен-ной основой для моделирования различных операцийобработки информации с использованием хаоса.

В отображениях с хаосом вследствие неустойчиво-сти возникает неопределенность в положении фазовойтраектории. Степень этой неопределенности ограничи-вается динамическими уравнениями, связывающимипредыдущее и последующее состояния системы. Ин-формация о начальном состоянии системы (заданнаявсегда с конечной точностью) теряется при переходе отпредыдущего состояния к последующему. Поэтомуможно говорить о производстве информации в такихсистемах. Если же отображение демонстрирует регу-лярное поведение (например, периодические колеба-ния), то его будущее полностью определено и произ-водство информации равно нулю. Стартуя из любыхначальных условий, образующих бассейн притяжениярегулярного аттрактора, траектория отображения при-тягивается к этому аттрактору (неподвижной точке,предельному циклу), и информация о начальных усло-виях теряется, поскольку траектории, выходящие изразных начальных точек, становятся через некотороевремя неразличимыми. Информация "исчезает", и по-этому регулярные аттракторы можно рассматривать как"стоки" информации.

Таким образом, нелинейные одномерные отображе-ния способны как производить, так и "уничтожать" ин-формацию. Каждую траекторию динамической системыможно рассматривать как некоторый информационныйсигнал. Тем самым совокупность траекторий отображе-ния представляет собой своеобразное "хранилище" ин-формации в виде множества траекторий системы. Это"хранилище" обладает рядом интересных свойств, про-явление которых зависит от того, имеются ли аттракто-ры в динамической системе и какого они типа.

Рассмотрим некоторые из этих свойств.Если в момент времени t = t0 задать начальные усло-

вия, то формально траектория отображения известна и

Page 8: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

57

однозначно определена для всех t > t0 (аналог теоремыКоши для отображений ). Если траектории вдоль еедлины сопоставлен информационный сигнал, он можетбыть воспроизведен путем итерирования отображения сзаданными начальными условиями, т.е. информацияизвлекается из памяти путем решения эволюционногоуравнения.

"Хранилище" информации как динамическая памятьобладает естественными ассоциативными свойствами.Действительно, задавая любой фрагмент сигнала, мож-но воспроизвести все его последующие значения, а вслучае циклического сигнала — и весь сигнал целиком.

Пусть в отображении имеется единственный аттрак-тор — неподвижная точка. Тогда траектория, задавае-мая любыми начальными условиями из области опреде-ления отображения, сходится к неподвижной точке, асоответствующий ей информационный сигнал — к по-стоянному значению. Текущее информационное содер-жание такого сигнала по мере сходимости уменьшается."Информационное содержание" самих устойчивых не-подвижных точек в случае одномерного отображения— это значение единственной константы. Увеличениеобъема записанной информации может происходитьтолько за счет улучшения точности задания координаты— точки равновесия, т.е. за счет улучшения разрешаю-щей способности.

Если в отображении имеется аттрактор — устойчи-вый предельный цикл, то все траектории со временемстягиваются к нему. Периодическую траекторию, соот-ветствующую предельному циклу, можно рассматри-вать как периодически воспроизводимый информаци-онный сигнал. Объем информации в таком сигнале оп-ределяется длиной цикла и степенью его изрезанности(информационной насыщенностью). Обычно при ис-следовании динамических систем имеют дело с относи-тельно короткими циклами простой структуры. В тра-диционных отображениях формой циклов очень сложноуправлять. Из этого исходили Дж. Николис и другиеавторы, отнеся предельные циклы к аттракторам, накоторых могут храниться только небольшие объемыинформации.

Однако прошло несколько лет и оказалось, что этоглубокое заблуждение. В действительности уже разра-ботаны методы синтеза специальных отображений сзаписанной информацией, соответствующие алгоритмыи программные комплексы, практически не имеющиеограничений на объем информации, записываемой напредельных циклах отображений. Кроме того, итерацииотображения вдоль цикла нейтральны в смысле сжатияинформации: они не приводят ни к исчезновению ста-рой информации, ни к порождению новой и простовоспроизводят периодически одну и ту же информа-цию, т.е. идеально сохраняют ее.

По перечисленным причинам будем рассматриватьпредельные циклы отображений в качестве основных

объектов для записи и хранения информации в отобра-жениях с хаосом.

Пусть в системе имеется единственный хаотическийаттрактор. Тогда траектория теряет информацию о на-чальных условиях и отображение производит собствен-ную информацию. Вид соответствующего информаци-онного сигнала может быть очень сложным, т.е. он яв-ляется информационно насыщенным. Если скоростьпроизводства информации невелика, то аттрактор оста-ется хорошо локализованным в фазовом пространстве.Такие хаотические аттракторы в принципе могут хра-нить достаточно большие объемы информации. Если жепроизводство информации велико, то хаотический ат-трактор как целое становится объектом с большой не-определенностью и как хранилище информации теряетсвою привлекательность. Однако можно использовать вкачестве хранилища информации его систему неустой-чивых циклов. Действительно, хаотические аттракторысодержат счетное число периодических орбит. Этовполне определенные орбиты, которые могут рассмат-риваться как траектории, соответствующие информаци-онным сигналам. Они неустойчивы и требуют примене-ния специальных методов извлечения информации, на-пример, синхронизации и контроллинга.

Рассмотрим случай, когда отображение имеет дваили более регулярных аттрактора. В зависимости отначальных условий траектория притягивается к томуили иному аттрактору. Отображение тем самым "разли-чает" начальные условия и "классифицирует" их на не-сколько типов по числу аттракторов. Оно сжимаетмножество всех начальных условий в несколько клас-сов, т.е. способно выполнять роль распознавателя(классификатора). В таком отображении информациякак бы обобщается, "производства" информации нет.Результат функционирования системы переносит нановый уровень иерархии: вместо исходного множестватраекторий имеется несколько специальных траекторий— аттракторов, каждый из которых характеризует классинформационных объектов.

Пусть отображение имеет два или более хаотиче-ских аттрактора. Если хаос не охватывает значительнуючасть фазового пространства, то сжатие достаточно ве-лико и система по-прежнему представляет собой клас-сификатор. Этот вариант динамического распознавате-ля обладает тем свойством, что его хаотические аттрак-торы производят некоторое количество информации.Если скорость производства информации не превышаетнекоторого критического уровня Ic, то каждый из хао-тических аттракторов соответствует единственномуобобщенному образу. При I > Ic (конкретное значение Icопределяется свойствами отображения) может начаться"разбухание" и последующее объединение аттракторов,в результате которого фазовая траектория начнет блуж-дать между аттракторами, а отображение будет терятьспособность к распознаванию — сначала частично, ко-

Page 9: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

58

гда объединятся только некоторые из аттракторов, азатем полностью, когда независимо от начальных усло-вий траектория отображения притягивается к одному итому же глобальному хаотическому аттрактору.

Объединению аттракторов часто предшествуют ихкризисы и перемежаемость. При перемежаемости тра-ектория большую часть времени проводит на потеряв-ших устойчивость аттракторах, делая время от временинерегулярные переходы между ними. Если рассматри-вать аттракторы как образы информационных объектов,процесс перемежаемости можно интерпретировать как"сканирование" памяти. Отметим, что это очень эко-номный способ просмотра. Во-первых, траектория дос-таточно редко уходит с бывших аттракторов, т.е. в ос-новном посещается только то множество фазового про-странства, где есть информация, и нахождение нужнойинформации происходит намного быстрее, чем, напри-мер, при случайном поиске. Во-вторых, не требуетсядополнительной информации , кроме знания уравненийсамой динамической системы.

В качестве среды для записи и хранения информа-ции в [52] было предложено использовать динамиче-скую систему с дискретным временем — одномерноеотображение отрезка в себя. В этой простой системебыла продемонстрирована возможность записи на пре-дельных циклах, показана возможность реализации ас-социативной памяти, распознавания образов и ряда дру-гих базовых функций обработки информации с исполь-зованием сложной динамики [52–55].

Рассмотрим процедуру записи и восстановления ин-формации на основе предельных циклов одномерныхдинамических систем. Записываемая информация пред-ставляется в виде информационных блоков — конеч-ных последовательностей вида

a1 a2 ... an. (2)

Каждый элемент ai информационного блока принад-лежит конечному упорядоченному множеству A == {aj, j = 1 ... N}, которое далее будем называть алфави-том. Примерами таких алфавитов являются кириллица,нотная азбука, набор ASCII-кодов и т.д.

Следует заметить, что при записи на замкнутую тра-екторию информационный блок (2) мысленно "сшива-ется" в кольцо, так что после последнего элемента anследует первый a1, поэтому фрагментом информацион-ного блока будем называть односвязный "отрезок" это-го кольца.

К синтезируемой функции ƒ(x) одномерного ото-бражения xn+1 = ƒ(xn) с записанной информацией предъ-являются следующие требования: предельный цикл,несущий информацию об информационном блоке дли-ной n, последовательно проходит через n точек; междуточками цикла и элементами соответствующего инфор-

мационного блока существует взаимно однозначноесоответствие; контролируется характер устойчивостипредельного цикла.

Синтез одномерного отображения начинается с того,что в одномерном фазовом пространстве — отрезке[0, 1] — для каждого из записываемых информацион-ных блоков a1 a2 ... aт строится замкнутая траектория —цикл γn = {x1, ..., xn}, каждая точка которого взаимнооднозначно связана с соответствующим фрагментоминформационного блока. После того, как в фазовомпространстве построен скелет замкнутых траекто-рий-циклов, отвечающих записанным информационнымблокам, конструируется собственно функция ƒ(x).

Для этого на плоскости (Xm, Xm+1) откладываютсяпары последовательных точек всех циклов (xi, xi+1). Лю-бая однозначная кривая, проходящая через эти точки,определяет функцию ƒ(x) одномерной динамическойсистемы, удовлетворяющую первым двум требованиям,предъявляемым к функции отображения. Для управле-ния устойчивостью циклов через точки на плоскости(Xm, Xm+1) проводятся короткие отрезки с фиксирован-ным наклоном s (далее называемые информативнымиучастками). Как известно, устойчивость предельногоцикла определяется его мультипликатором µ. В случаеодномерного отображения для цикла γn = {x1, ..., xn} онравен µ = ƒ′(x1)⋅…⋅ƒ′(xn), а в данном случае µ = sn. При|µ| < 1 (|s|<1) цикл устойчив, при |µ| > 1 (|s|>1) — неус-тойчив.

Синтез функции ƒ(x) искомого одномерного ото-бражения завершается последовательным соединениемконцов информативных участков между собой и конца-ми отрезка [0, 1] прямыми линиями.П р и м е р 1 . Продемонстрируем принцип записиинформации на предельных циклах одномерных дина-мических систем на примере записи информационногоблока — слова "бег". В качестве алфавита возьмемподмножество кириллицы: A = {а, б, в, г, д, е, ж, з, и,к}, длина алфавита N = 10. Разделим фазовое простран-ство — единичный отрезок I = [0, 1] — на N регионов— отрезков длиной 0,1 и каждому из них поставим всоответствие букву — элемент алфавита (рис. 1). Попа-дание фазовой траектории на тот или иной отрезок (тотили иной регион фазового пространства) будем интер-претировать как появление на "выходе" динамическойсистемы соответствующего элемента алфавита.

Page 10: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

59

Рис. 1.Отображение с одним циклом, несущим слово "бег"

Теперь для информационного блока "бег" построимцикл γ3 = {x1, x2, x3} = {0,15; 0,55; 0,35}. Каждая точкаэтого цикла однозначно связана с одним из элементов(фрагментом единичной длины) информационного бло-ка, и представляет собой центр соответствующего ре-гиона xj = (mj – 0,5)/N, где mj — порядковый номер эле-мента блока ai в алфавите.

После того как в одномерном фазовом пространствепостроен цикл, отвечающий записанному информаци-онному блоку, на плоскости (Xm, Xm+1) отложим точкивида (xi, xi+1): (0,15; 0,55), (0,55; 0,35), (0,35; 0,15). Черезкаждую из них проведем отрезок с наклоном s = 0,5,доходящий до границ региона. Эти информативныеотрезки обеспечивают устойчивость цикла. Соединимконцы информативных участков между собой и с кон-цами отрезка [0, 1] прямыми линиями. Синтез функцииƒ(x) одномерного отображения xn+1 = ƒ(xn) закончен.Уровень записи. П р и м е р 2 . Попробуем записатьна одном отображении два слова "бег" и "вид" на двухпредельных циклах. Будем использовать алфавит изпримера 1. В этом случае описанную выше процедурупридется немного усложнить, введя понятие уровнязаписи, иначе отображение получится неоднозначным.Проведем запись этих слов на втором уровне.

Как и в предыдущем случае, для каждого информа-ционного блока строим свой цикл γn = {x1, …, xj, …, xn}, каждая точка xj которого будет определяться неодним элементом информационного блока, а паройсоседних элементов (фрагментом длины 2): xj = (mj –0,5)/N + (mj+1 – 0,5)/N 2. Чтобы вычислить эту точку,единичный отрезок I делим на N регионов первогоуровня и ставим им в соответствие свои элементыалфавита. Каждый из этих регионов, в свою очередь,делим на N регионов второго уровня, и с каждым из нихтакже сопоставляем свой элемент алфавита.

Для информационного блока "бег" три точки циклаγ3

1 связаны с фрагментами "бе", "ег", "гб". Чтобы найтиточку цикла, соответствующую фрагменту "бе", в ре-гионе первого уровня "б" возьмем регион второго уров-

ня "е", центр этого региона поставим в соответствиефрагменту "бе". Аналогично поступим с другими фраг-ментами слов "бег" и "вид". В результате получим двацикла γn

1, 2, однозначно связанные с этими информаци-онными блоками.

Для построения функции ƒ(x) отображения с этимициклами отложим на плоскости (Xm, Xm+1) точки с коор-динатами (xj, xj+1), где xj, xj+1 — последовательные точкициклов γ3

1 и γ32. Для управления устойчивостью циклов

через каждую такую точку проведем информативныйотрезок с фиксированным наклоном s, как в примере 1,но на этот раз проведем его до границ участков уровня2.

Синтез функции ƒ(x) завершается последовательнымсоединением концов информативных отрезков междусобой и с концами единичного отрезка прямыми ли-ниями (рис. 2).

Рис. 2. Функция отображения: слова "бег" и "вид" записанына двух циклах на втором уровне

Аналогично может быть произведена запись инфор-мации на произвольном уровне q. Каждая точка соот-ветствующего цикла определяется фрагментом длинойq соответствующего информационного блока, а длинаинформативных интервалов (проекций информативныхучастков) составляет N – q, это длина региона уровня q.

Выбор уровня записи диктуется, во-первых, требо-ванием однозначности функции отображения ƒ(x) (ог-раничение снизу), во-вторых, точностью вычислений(ограничение сверху), поскольку с ростом уровня запи-си уменьшается длина информативных интервалов.Ассоциативное извлечение информации. Восстанов-ление (извлечение) информации, записанной на пре-дельных циклах одномерных отображений, наиболеепросто осуществляется при записи информации на ус-тойчивых циклах (при |s| < 1). При этом проекции ин-формативных участков на ось Xm (информативные ин-тервалы) составляют области гарантированной (непо-средственной) сходимости фазовой траектории к пре-

Page 11: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

60

дельным циклам. При задании начальных условий x0 наодном из информативных интервалов фазовая траекто-рия динамической системы быстро сходится к соответ-ствующему предельному циклу, а на "выходе" отобра-жения наблюдается воспроизведение записанного ин-формационного блока, поскольку фазовая траекториясистемы при этом последовательно обходит соответст-вующие регионы первого уровня.

При задании начальных условий x0 на неинформа-тивном участке отображения выходу траектории напредельный цикл предшествует переходной хаос, когдафазовая траектория системы блуждает по неинформа-тивным участкам отображения. Рано или поздно онапопадает на информативный участок отображения исходится к тому или иному предельному циклу с запи-санной информацией1.

При задании произвольных начальных условий по-падание фазовой траектории системы на тот или инойинформационный предельный цикл для стороннего на-блюдателя представляется случайным. Однако рассмат-риваемый принцип записи информации дает возмож-ность извлечения конкретного информационного блока,если известна какая-либо его малая часть (цитата,фрагмент).

Если известен точный фрагмент информационногоблока длиной не меньшей, чем номер уровня записи, тоиспользуя описанную выше процедуру построения то-чек цикла, по предъявленному фрагменту информаци-онного блока можно восстановить, по крайней мере,одну точку соответствующего предельного цикла и,проитерировав отображение, восстановить весь инфор-мационный блок.

Свойство ассоциативного доступа к записанной ин-формации по известному фрагменту (ассоциативнаяпамять) напрямую вытекает из динамических свойствотображения и аттракторов – носителей информации.Последовательная запись информации. Потребностьв последовательной записи образов возникает, напри-мер, когда система работает в режиме "on line", т.е. ко-гда последовательно поступают образы, которые необ-ходимо записать в отображении. Это можно сделатьследующим образом [17]. Сначала строится отображе-ние, соответствующее одному блоку информации, затем

1 Отсутствие устойчивых предельных циклов, не связанных сзаписанными информационными блоками (“ложные” циклы),можно гарантировать при незначительной модификации про-цедуры построения отображения.Можно также показать, что принципиально возможные хао-

тические множества являются в подобной системе неустойчи-выми: инвариантная мера такого множества обязательно пе-ресекает информативные участки отображения, поэтому по-сле некоторого пребывания на этом множестве фазовая траек-тория системы неизбежно попадет на информативный уча-сток отображения и сойдется к тому или иному информаци-онному предельному циклу.

добавляется второй блок и строится отображение длядвух блоков информации и т.д. Однако при техническойреализации подобных систем (как и при их компьютер-ном моделировании) это не самый эффективный под-ход. В этом случае появление каждого последующегоблока информации требует полной перестройки ото-бражения. С другой стороны, в новом отображении ос-танутся фрагменты старого, и с появлением все новых иновых блоков информации соответствующие измененияв структуре отображения будут все более и более ло-кальными. Поэтому целесообразны такие алгоритмыпоследовательной записи блоков информации, которыевносили бы в отображение необходимые локальныеизменения, не затрагивая глобальную его структуру.

Один из подходов к последовательной записи ин-формации состоит в следующем. Пусть на отображенииуже записано i блоков информации и требуется запи-сать (i+1)-й блок (предполагается, что он "ортогонален"предыдущим блокам). Для реализации записи новогоблока информации производится расчет положенийточек цикла, через которые должно пройти новое ото-бражение. Отображение в нашей модели является ку-сочно-линейным, и крайние точки каждого отрезка за-даются парой чисел. Для того чтобы ввести новый блокинформации в исходное отображение, необходимо, во-первых, определить положение каждой точки цикла,соответствующей новому блоку информации, относи-тельно массива точек hj задающих абсциссы концовотрезков. Во-вторых, рассчитать абсциссы и ординатыточек, соответствующих концам отрезка, содержащегоданную точку цикла. Затем надо переупорядочить мас-сив hj в массив hj+1, увеличив его размер на 2nj+1 точек(где ni+1 — длина (i+1)-го блока информации), и соеди-нить отрезками прямых точку hi

j с левой граничнойточкой нового информативного отрезка, которую со-единить с правой точкой нового информативного от-резка, а эту точку — с точкой, имеющей абсциссу hi

j+1.Если перед этим произвести упорядочивание точек

цикла, соответствующего блоку информации с номеромi+1, по нарастанию абсцисс, то указанную операциюможно свести к однократному переупорядочиваниювсех точек, стоящих правее крайней левой точки в цик-ле, отвечающем новому блоку информации. Более того,это переупорядочивание сводится просто к добавлениюсоответствующих чисел к индексам.

Таким образом, в рассматриваемом подходе задачасводится к упорядочиванию элементов цикла, соответ-ствующего (i+1)-му блоку информации и однократнойпереиндексации элементов отображения.

Если решать задачу "в лоб", то при появлении каж-дого нового блока информации нужно переупорядочи-вать все точки во всех блоках. Выигрыш при большомобъеме уже записанной информации очевиден.Информационная емкость памяти на основе одно-мерного отображения. Вопрос об информационной

Page 12: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

61

емкости записи на одномерном отображении являетсяестественным при анализе возможностей метода и егоконкурентоспособности по сравнению с другими мето-дами записи и восстановления информации.

При записи информации с помощью рассматривае-мого метода существуют ограничения. Покажем их наследующем примере. Пусть алфавитом является упоря-доченный набор цифр 0, 1, ..., 9 десятичной системысчисления. Очевидно, блок информации 174 можно за-писать на первом уровне. На одном отображении с нимможно записать и блок информации 268. Запись трехинформационных блоков 174, 268 и 173 на одном ото-бражении невозможна, так как оно становится неодно-значным. Вместе с тем, если запись вести на третьемили более высоком уровне, то все три блока могут бытьзаписаны. Таким образом, требование однозначностиотображения накладывает определенные ограниченияна количество и структуру записываемой информации.

Из способа построения одномерного отображенияследует основное условие, определяющее возможностьзаписи образов: отсутствие в информационных блокаходинаковых фрагментов длиной, равной или превы-шающей уровень записи. Если оно не выполняется,отображение теряет однозначность. Это и есть условие"ортогональности" образов для данной системы записии хранения информации.

Под информационной емкостью записи будем по-нимать максимальное число образов (информационныхблоков), которые можно одновременно записать в ди-намической системе. Из приведенного анализа следует,что вопрос об информационной емкости сводится кподсчету числа "q-ортогональных" образов при алфави-те длиной N.

Для определенности рассмотрим запись информа-ционных блоков одинаковой длины (без меток). Снача-ла вычислим, сколько существует последовательностейдлиной l. Очевидно, что их N l. Отметим, что цикл дляинформационного блока совпадает с циклами для всехинформационных блоков, представляющих цикличе-ские перестановки исходного информационного блока(всего их l ). Поэтому последовательности 174, 741, 417при данном способе записи неразличимы и представ-ляют один и тот же информационный блок. Посколькусуществуют последовательности, совпадающие с неко-торыми из своих циклических перестановок (например,последовательность, состоящая из l повторений одногосимвола алфавита), то полное число разных последова-тельностей длиной l равно или больше N l /l.

Рассмотрим первый случай, когда q ≥ l, т.е. уровеньзаписи больше или равен длине образа. Пусть p — чис-ло информационных блоков, совпадающих с некоторы-ми своими циклическими перестановками. Они не мо-гут быть записаны на одномерном отображении какпоследовательности длиной l. Все информационныеблоки за исключением этих, в принципе могут быть

записаны, так как две различные последовательностидлиной l могут иметь идентичные фрагменты толькодлиной меньше l и, следовательно, меньше q. Значит,эти последовательности удовлетворяют условию "орто-гональности". Полное число информационных блоков,которые могут быть записаны в этом случае равно (N l –– p)/ l ≤ N l / l.

Во втором случае q < l, уровень записи меньше дли-ны образа. Пусть записывается информационный блокC = c1c2…cn, где ci — элементы алфавита, на уровнезаписи q, q < l. Чтобы проверить, удовлетворяет ли Cусловию "q-ортогональности", необходимо рассмотретьвсе фрагменты этого информационного блока имеющиедлину q, Ci = (cici+1…ci+q–1), i = 1, ..., l. Если все этифрагменты различны, то информационный блок можетбыть записан. Однако эти фрагменты уже не могут бытьиспользованы ни в каком другом записываемом образе.

Полное число всех возможных фрагментов длины qв рассматриваемом случае равно N q. При записи одногоинформационного блока используются l из них, причемвсе они различны из-за условия "ортогональности". Ос-тальные блоки, содержащие эти фрагменты, уже не мо-гут быть записаны. Записанный информационный блокдлиной l содержит l различных фрагментов длиной q.Поэтому из всех возможных информационных блоковдлины l (а таких насчитывается не менее N q) можнозаписать максимум N q /l.

Итак, информационная емкость E метода записиинформации на предельных циклах одномерных ото-бражений равна

≥≤

≤.,/;,/

qllNqllNE q

l

(3)

Приведем пример. Выясним, сколько слов из шестибукв русского алфавита можно записать на третьемуровне. Алфавит состоит из 33 элементов (букв). Пол-ное число информационных блоков (слов) с учетомциклических перестановок равно 336/6, включая экзо-тические "бббббб" или "ыыыытт". Если записано сло-во "прибор", то нельзя записать блоки, содержащиефрагменты "при", "риб", "ибо", "бор", "орп", "рпр", азаписав одновременно со словом "прибор" слово "лю-бовь", исключаем фрагменты "люб", "юбо", "бов", "овь","вьл", "ьлю" из списка доступных в дальнейшем. Призаписи шестибуквенных слов на третьем уровне(N = 33, l = 6, q = 3) емкость E ≤ 5989. Перебор всехвозможных шестибуквенных "слов" по порядку от"аааааа" до "яяяяяя" на компьютере дал значение E =5983. Оставшиеся 39 неиспользованных трехбуквенныхфрагментов уже никак не могут быть "сцеплены" ни водно шестибуквенное "слово".С л е д с т в и е и з ф о р м у л ы ( 3 ) . Рассмотрим пре-дельный случай, когда можно записать только один

Page 13: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

62

образ, т.е. E = 1. В этом случае из (3) следует l = = N q, а это значит, что если длина образа l > N q, невоз-можно записать ни одного такого образа. С другой сто-роны, для выбранных N и l минимальный уровень запи-си q равен log N l.

Представляет интерес также относительная емкостьданного метода записи и хранения информации, т.е.соотношение числа возможных и записанных образов.Нетрудно видеть, что

≥≤

≤ − ;,/1;,1

qlNql

E qlотн (4)

Как следует из (4), относительная емкость зависиттолько от разности l и q, и по мере уменьшения уровнязаписи относительно длины образа экспоненциальнопадает.Кодирование информационных блоков. Анализ ин-формационных последовательностей (изображений,текстов и т.д.) показывает, что наибольшие трудности сих записью связаны с длинными однородными участ-ками, хотя здравый смысл подсказывает, что они со-держат немного информации. Эти соображения приво-дят к мысли о записи предварительно сжатой информа-ции, но сжатой особым образом, чтобы обеспечить за-пись на уровне q. Процесс сжатия информации (устра-нения избыточности) назовем "ортогонализацией", что-бы подчеркнуть, что ее целью является обеспечениезаписываемости образов [59, 60, 62].

Один из возможных алгоритмов заключается в ко-дировании информационных последовательностей спостроением алфавита повторяющихся фрагментов.Идея такова: если в информационных блоках обнару-живается повторяющийся фрагмент длиной q, то алфа-вит расширяется на один символ, представляющий со-бой этот фрагмент, а в последовательностях он кодиру-ется этим новым символом. Получаются новые инфор-мационные блоки меньшей длины, выраженные в алфа-вите длиной (N + 1). Процедура повторяется до тех пор,пока они не станут "ортогональными", т.е. не содержа-щими одинаковых фрагментов длиной q.

В результате применения такого алгоритма получа-ются ортогональные, более короткие закодированныеинформационные последовательности и расширенныйалфавит, состоящий из исходного алфавита длиной N идополнительного, элементы которого состоят из неко-торого фрагмента длиной q и символа, представляюще-го (кодирующего) этот фрагмент в последовательно-стях.

Таким образом, ортогонализация состоит в устране-нии избыточной информации в виде повторяющихсяфрагментов за счет кодирования их более короткимисимволами. В отличие от рассмотренного выше подхо-

да, где запись обеспечивалась увеличением ее уровня, вданном случае фиксируется уровень и наращиваетсяалфавит. Это дает принципиальную возможность запи-сать любую совокупность информационных блоков налюбом уровне, начиная со второго.

Данный метод кодирования информационных бло-ков является обратимым, потерь информации не проис-ходит. Для декодирования информации символы до-полнительного алфавита в закодированной последова-тельности заменяются фрагментами длиной q из алфа-вита. Эту процедуру, возможно, придется проделатьнесколько раз либо предварительно нужно выразить всефрагменты дополнительного алфавита через элементыначального алфавита.

Естественно, процедура кодирования неоднозначна.Окончательный вид закодированных последовательно-стей, расширенного алфавита, их длина определяютсяпорядком пополнения алфавита совпадающими фраг-ментами, т.е. процедурой их поиска.Сжатие информации. Как отмечалось выше, методкодирования ( ортогонализации ) информационных по-следовательностей разработан для записи любого набо-ра информационных блоков на одномерном отображе-нии. "Побочным" результатом ортогонализации являет-ся обратимое (без потерь) сжатие информации —уменьшение общего объема данных, необходимых дляполного и точного описания информационных объек-тов, например текстов или изображений.

В настоящее время известно много методов сжатияинформации. Их можно разделить на две большиегруппы: обратимые методы (без потерь) и методы сжа-тия с потерями. Методы сжатия информации с потеря-ми позволяют достичь бόльших коэффициентов сжатия,чем обратимые методы. Наблюдается простая законо-мерность: чем больше коэффициент сжатия, тем боль-ше потери. Если типичный коэффициент сжатия дляобратимых методов равен 2…5, то коэффициент сжатиядля методов с потерями достигает 10…30, в зависимо-сти от степени упорядоченности информации. Все су-ществующие методы сжатия с потерями применяютсятолько для обработки изображений и звуковых сигна-лов, так как в других областях информатики (обработкатекстов, хранение и передача данных и т.п.) потери ин-формации недопустимы.

Если взглянуть на описанный метод ортогонализа-ции как на метод сжатия информации, то оказывается,что коэффициент сжатия, достигаемый применениемэтого метода, примерно совпадает с тем, что дают дру-гие известные методы сжатия информации без потерь— арифметический, Лемпеля-Зива (ЛЗ), Хаффмана.Ассоциативное извлечение информации при ис-пользовании кодирования. Для реализации ассоциа-тивной памяти, т.е. восстановления записанного образапо его произвольному фрагменту необходимо задатьначальные условия, лежащие на соответствующем ат-

Page 14: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

63

тракторе. Для этого нужно знать фрагмент (ajaj+1...aj+q–1)длиной q информационного блока и вычислить началь-ную точку x0

.N

ax

q

jkkj∑

=

−+=1

10 (5)

При записи на уровне q сначала проводится ортого-нализация информационных блоков, а затем закодиро-ванные блоки записываются на предельные циклы ото-бражения. Если известен фрагмент закодированногоинформационного блока длиной q, то по нему согласно(5) может быть построена начальная точка x0, восста-новлен закодированный информационный блок, деко-дирован исходный информационный блок. Однако го-раздо больший интерес представляет восстановлениепоследовательности не по фрагменту закодированногоблока, а по фрагменту исходного паттерна в исходномалфавите.

Для реализации ассоциативного доступа в рассмат-риваемом случае необходимо сначала получить изпредъявленного фрагмента паттерна в исходном алфа-вите соответствующий фрагмент закодированной ин-формационной последовательности. Для этого нужносначала закодировать его, пользуясь имеющимся в на-личии дополнительным алфавитом — таблицей фраг-ментов, полученным при ортогонализации информаци-онных блоков.

Проблема заключается в том, что фрагмент, предъ-явленный для распознавания, может начинаться с про-извольного элемента исходного информационного бло-ка, включая и такие, которые не существует в закодиро-ванном блоке, потому что вошли в состав фрагментов,замененных одним символом. Пусть, например, блок(abcdefghijk) после кодирования на третьем уровне при-нял вид (xdyhz), где x = (abc), y = (efg), z = (ijk), а систе-ме ассоциативной памяти предъявлен фрагмент исход-ного блока (cdefghi). При преобразовании предъявляе-мого фрагмента из исходного в новый алфавит получа-ется некая новая последовательность (cdyhi), содержа-щая "правильный" кусок закодированного блока (dyh) всередине и "неправильные" элементы по краям.

Чтобы "отсеять" их, используем следующую проце-дуру. По первым q элементам закодированного после-довательного фрагмента строим начальную точку со-гласно (5). Затем, используя знание отображения, опре-деляем, попадает ли она на информативный интервал.Если x0 не попадает на информативный интервал, зна-чит, по крайней мере, первый элемент закодированногопоследовательного фрагмента "неправильный". В такомслучае переходим к следующему элементу, и так до техпор, пока не окажется, что x0 попадает на информатив-ный интервал. Некоторый текущий фрагмент (b1b2...bq),из которого получена начальная точка x0, является кан-

дидатом на начало "правильной" части закодированно-го фрагмента. Чтобы убедиться в этом, проитерируемотображение несколько раз. Начальная точка x0 порож-дает последовательность итераций x0, x1 = f(x0), x2 == f(x1) = f(f(x0)), ..., а также соответствующий информа-ционный поток c0 = int(Nx0), c1, c2... Если (b1b2...bq) дей-ствительно является "правильным" участком, и "непра-вильные" элементы спереди уже отфильтрованы, тоc0 = b1, c1 = b2 и т.д. Если это не так, значит попаданиена информативный интервал было случайным, и эле-мент последовательности b1 тоже "неправильный". Еслив закодированном последовательном фрагменте имеет-ся "правильный" кусок, по крайней мере, длиной q, тоон будет найден таким образом. Если длина его неменьше q, его можно использовать для получения на-чальных условий на аттракторе. После того как получе-на начальная точка x0, легко восстановить всю инфор-мационную последовательность и соответственно весьпаттерн.

Если же весь закодированный фрагмент просмотрен,а найти начальную точку на аттракторе не удалось, зна-чит, длина фрагмента была недостаточна — после ко-дирования в нем не нашлось "правильного" фрагментадлиной q.

Таким образом, система ассоциативной памяти, по-строенная на описанных принципах, в ответ на предъ-явленный информационный блок или его часть практи-чески мгновенно формирует один из двух возможныхоткликов: либо возвращает начальное условие x0 на со-ответствующем аттракторе — предельном цикле, покоторому может быть полностью восстановлен блок;либо дает ответ, что предъявленной информации недос-таточно для однозначного формирования начальногоусловия на аттракторе, это же происходит и тогда, ко-гда предъявленный блок не записан на отображении.При предъявлении некоторого фрагмента блока системаассоциативной памяти либо безошибочно восстанавли-вает информационный блок, либо сообщает о неспо-собности сделать это. Ошибка невозможна в силу одно-значности процедуры кодирования предъявляемогофрагмента, "ортогональности" записанных информаци-онных блоков, однозначности самого отображения, атакже благодаря использованию при формированииначального условия описанной выше процедуры срав-нения закодированного фрагмента с порождаемым иминформационным потоком.

Следует заметить, что формирование начального ус-ловия на аттракторе и соответственно восстановлениеисходного паттерна по его фрагменту происходит безсравнения предъявляемого фрагмента с каждым из за-писанных образов. После кодирования предъявляемогофрагмента для вычисления начальной точки x0 можетпонадобиться выполнение лишь нескольких итерацийдля проверки попадания на аттрактор отображения, авремя, затрачиваемое на каждую итерацию отображе-

Page 15: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

64

ния, пропорционально логарифму объема записаннойинформации.

Таким образом, описанная система ассоциативнойпамяти для изображений обладает свойствами оченьбыстрого коррелятора.Бифуркационные явления в отображениях с запи-санной информацией. Для эффективной обработкиинформации в нелинейной динамической системе необ-ходимо понимание поведения траекторий, существова-ния и устойчивости тех или иных динамических струк-тур в ее фазовом пространстве [61]. Ниже рассматри-ваются явления, сопровождающие потерю устойчиво-сти предельных циклов с записанной информацией приувеличении наклона |s| от значений, меньших единицы.

Анализ бифуркационных диаграмм для одномерныхотображений с записанной информацией будем вести,опираясь на результаты, полученные в [56, 57]. В этихработах показано, что в кусочно-линейных отображени-ях помимо обычных циклов точек γm = {x1, x2, ..., xm}могут иметь место циклы интервалов1 Γm == {I1, I2, ... Im} — хаотические притягивающие множест-ва, состоящие из конечного числа отрезков Ik. При дви-жении на таком аттракторе фазовая траектория системыпроходит через точки x1, x2, …, xn, xn+1 == ƒ(xn), …, последовательно попадающие на интервалыI1, I2, ..., Im. В [56, 67] построена теория кусочно-линейных отображений с единственным экстремумом иподробно исследованы механизмы возникновения цик-лов хаотических интервалов и динамические свойстваэтих аттракторов.

Перед тем как комментировать бифуркационныедиаграммы отображений с записанной информацией,рассмотрим схематически явления в окрестности ин-формативных отрезков во время бифуркации потериустойчивости предельных циклов при s = 1 (мультипли-катор цикла µ = +1).

Устойчивость периодического решения с периодомm отображения ƒ: I → I удобно анализировать с помо-щью отображения ƒm. Предельный цикл γm = {x1, x2, ...,xm} периода m отображения ƒ соответствует неподвиж-ной точке xc отображения ƒm, где xc — одна из точекцикла. Устойчивость предельного цикла γm однозначносвязана с устойчивостью неподвижной точки xc ото-бражения ƒm: цикл γm устойчив, если устойчива xc, т.е.|ƒm(xc)′| < 1, и наоборот: |ƒm(xc)′| = |ƒ(x1)′...⋅ƒ(xm)′| = |µ|,где µ — мультипликатор цикла γm.

В критической точке s = 1 все точки информативно-го отрезка на ƒm: I→I неподвижны и лежат на биссек- 1Циклы интервалов, известные также под именем “шумящиеинтервалы”, могут иметь место и в гладких отображениях. Вкачестве примера можно привести аттрактор — циклинтервалов периода 1 отображения логистической параболыxn+1 = λxn(1 – xn) при λ = 4 с непрерывным хаотическиммножеством на отрезке [0, 1].

трисе xn+m = xn. При прохождении s через +1 на границеинформативного и неинформативного отрезков появля-ется "уголок", подобный изображенному на рис. 3, а,где показана правая половина информативного участка(xc — середина информативного отрезка, точка цикла,OR — вершина уголка, xR вначале совпадает с правойграницей информативного интервала). Наклон отрезкаxcOR, являющегося образом правой половины информа-тивного отрезка отображения ƒ, равен sm, а наклон от-резка ORyR равен sm–1p, где p ≈ const — наклон неин-формативного отрезка отображения ƒ, примыкающего кинформативному отрезку с предыдущей точкой цикла(|p| > 1). Так как наклоны обоих отрезков, составляю-щих уголок, больше единицы, здесь не могут существо-вать устойчивые предельные циклы. Как показано в[58], появляется хаотический аттрактор типа цикла ин-тервалов Γ = {[xaxR]} периода 1, где xa = ƒm(xR).

Этот динамический объект, состоящий из отрезка[xaxR], является притягивающим с момента рождения, адвижение на нем является хаотическим c положитель-ным показателем Ляпунова. Этому хаотическому ат-трактору периода 1 отображения ƒm соответствует ин-тервальный цикл Γm периода m отображения ƒ, полу-ченный итерациями интервала [xaxR] под действиемотображения ƒ. Этот, очевидно, притягивающий циклпроходит через краевые области соответствующих ин-формативных отрезков потерявшего устойчивость пре-дельного цикла γm. Эволюция интервального цикла ΓR

отображения ƒm зависит от наклона отрезков [xcOR] и[ORyR], составляющих "уголок".

В момент рождения цикл интервалов совпадает свершиной "уголка" — точкой ОR. По мере роста s рас-тут наклоны составляющих "уголок" отрезков, и ат-трактор Γ = {[xaxR]} расширяется в обе стороны от ОR.При некотором критическом s = s1, когда выполняетсяусловие ƒm(xR) = xc, интервальный цикл занимает всюправую половину информативного интервала исходногоотображения и часть неинформативного (рис. 3, б). Придальнейшем росте s в аттракторе появляется "дырка"[x1x2], где ƒm(x1) = xR и ƒm(x2) = xR, через которую фазо-вая траектория покидает аттрактор (рис. 3, в), уходя налевую половину информативного отрезка.

Page 16: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

65

Рис. 3. Бифуркационные явления в отображениях с записанной информацией

Это явление можно рассматривать как кризис ат-трактора — трансформацию хаотического аттракторапри столкновении его границы с неподвижной точкой xcв переходный (метастабильный) хаос. Следуя подходу,развитому в [58], можно оценить среднее время пребы-вания фазовой траектории на метастабильном аттракто-ре ΓR как

11121 1

/1~

−−−

+=

−−

=ps

sxxxx

PTm

cR, (6)

где P — вероятность ухода траектории с интервальногоцикла, причем P = 0 при s = s1. Для s близких к s1

( )( ) 11

1~ −− −≈ ssmPT . (7)

Отметим, что при s = s1 фазовая траектория систе-мы, покидая данный аттрактор, попадает в центр ин-формативного отрезка (точку xc), а при больших s за-

брасывается все ближе к его левому краю. Если на ле-вой половине информативного отрезка происходят ана-логичные явления с аттрактором ΓL, образуется общийаттрактор ΓΣ, объединяющий ΓR и ΓL на обеих полови-нах информативного отрезка. Это устойчивый аттрак-тор, так как единственные каналы ухода траектории сΓR и ΓL направлены один к другому. С ростом s и онтеряет устойчивость: при некотором s = s2 возникает"дырка" [x1′x2′], где ƒm(x1′) = xR′ и ƒm(x2′) = xR′, и траек-тория покидает уже окрестность информативного от-резка, отправляясь блуждать по фазовому пространству(рис. 3, г). Зависимость среднего времени пребывания Tфазовой траектории на неустойчивом множестве ΓΣаналогична (6).

Проиллюстрируем эти качественные рассужденияанализом бифуркационных диаграмм для отображенияс одним информационным блоком 375, записанным напервом уровне (рис. 4). Алфавит — набор цифр {0, 1, 2,3, 4, 5, 6, 7, 8, 9}, N = 10. Если фазовая траектория сис-темы в момент бифуркации рождения интервальных

Page 17: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

66

Рис. 4. Бифуркационная диаграмма отображения с однимциклом

циклов при s = 1 находится на правой стороне инфор-мативных отрезков относительно точек предельногоцикла (рис. 4, а), она притянется к интервальному цик-лу, проходящему через правую половину информатив-ных отрезков ("правый" аттрактор ΓR). Показатель Ля-пунова для этого аттрактора λ ≈ 0,3. При увеличении s

мера этого интервального цикла на отрезке [0, 1] увели-чивается, и при s1 ≈ 1,12 аттрактор доходит до xc —середины информативного отрезка. Это момент потериустойчивости "правого" цикла интервалов. При s > 1,12через появившийся канал траектория рано или позднопокидает окрестность этого аттрактора.

Однако, как следует из рис. 3, в, характер потери ус-тойчивости таков, что фазовая траектория, покидая ат-трактор на правой половине информативного отрезка,попадает на его левую половину. Если бы аттрактор налевом краю информативного отрезка ("левый" аттрак-тор ΓL) был в этот момент устойчивым, то траекторияосталась бы на нем. Однако он потерял устойчивостьраньше (при s ≈ 1,05), поэтому после некоторого блуж-дания по нему траектория уходит обратно на "правый"аттрактор, и т.д.

Таким образом, при s = s1 ≈ 1,12 образуется общийхаотический аттрактор ΓΣ периода 3, охватывающий всеинформативные отрезки. Этот аттрактор состоит издвух неустойчивых интервальных циклов ΓR и ΓL, одна-ко единственный канал ухода траектории для каждогоиз них направлен в сторону другого, так что любая тра-ектория, попавшая в ΓΣ, останется в нем.

С ростом s канал ухода на краю информативного от-резка "углубляется" (рис. 3, г), при s = s2 ≈ 1,14 общийаттрактор ΓΣ теряет устойчивость, и траектория покида-ет его. При s = s2 происходит бифуркация потери устой-чивости ΓΣ. Через s2 будем далее обозначать моментпотери устойчивости в отображении всех циклов интер-валов. При больших s в системе наблюдается глобаль-ный хаос.

На рис. 4, б изображена бифуркационная диаграммадля случая, когда фазовая траектория системы в моментбифуркации s = 1 находилась с левой стороны инфор-мативного отрезка относительно точки предельногоцикла. В этом случае она притягивается к интервально-му циклу ΓL с показателем Ляпунова λ ≈ 0,2. Но времяего жизни по параметру s существенно меньше: он те-ряет устойчивость уже при s ≈ 1,05. При больших s тра-ектория уходит с ΓL к устойчивому ΓR. Дальнейшие со-бытия совпадают с уже описанными для рис. 4, а.

Характер бифуркационных явлений при µ = -1 (при s= -1 и нечетной длине информационного цикла) замет-но отличается от рассмотренной: потеря устойчивостипредельного цикла приводит к рождению удвоенногоинтервального цикла (рис. 4, в), так как для отображе-ния ƒm: I → I наклон отрезка, проходящего через непод-вижную точку цикла xc, становится равным sm = -1, ипри каждой итерации ƒm края информативного отрезкаменяются местами. Реальный период интервальногоцикла при этом получается не m, а 2m. Вместо бифур-кации слияния интервальных циклов с разных краевинформативного отрезка с ростом |s| (при s1 ≈ -1,009)происходит заполнение всего информативного отрезка

Page 18: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

67

в результате расширения интервального цикла, чтоможно интерпретировать как обратную бифуркациюудвоения периода интервального цикла.

Рис. 5. Бифуркационная диаграмма для отображения с двумяинформационными циклам

Если в динамической системе записаны несколькоинформационных блоков, то при переходе |µ| черезединицу в окрестности каждого из соответствующихпредельных циклов независимо рождаются либо двапритягивающих цикла интервалов (при |µ| = 1), либоудвоенный цикл (при µ = –1). Их эволюция с ростом sсовпадает в общих чертах с описанной выше. Наклонынеинформативных участков, примыкающих к разныминформативным отрезкам, различны, поэтому различа-ются и "времена жизни", и условия устойчивости попараметру s каждого из этих интервальных циклов. Этовидно из рис. 5, на котором изображены бифуркацион-ные диаграммы для отображения с двумя информаци-онными блоками 12345 и 97583, записанными на вто-ром уровне. Размер информативных участков в N = 10раз меньше, чем в предыдущем случае, и равен 0,01. Нарис. 5, а изображена диаграмма для случая, когда прибифуркации потери устойчивости предельного цикла,несущего информационный блок 97583, фазовая траек-

тория притягивается к правому интервальному циклу вокрестности информационного цикла. При s ≈ 1,03 циклинтервалов на правой границе информативных отрезковтеряет устойчивость и траектория уходит с него через"дырку", аналогичную [x1x2] (см. рис. 3, в). Однако онауходит в сторону аттрактора на левой границе инфор-мативных отрезков. Если бы он был в этот момент ус-тойчив, траектория там и осталась бы. Но ввиду того,что он обладает аналогичной неустойчивостью, траек-тория остается на нем некоторое время и возвращаетсяна первый аттрактор и т.д. При этом наблюдается рож-дение общего интервального цикла, охватывающегоцеликом информативные отрезки цикла 97583.

На рис. 5, б изображен случай, когда во время би-фуркации потери устойчивости предельного цикла то-чек, соответствующего информационному блоку 12345,траектория притягивается к новорожденному устойчи-вому циклу интервалов, проходящему через правыйкрай информативных отрезков. Но он практически сра-зу же теряет устойчивость, и траектория уходит к ин-тервальному циклу на другом краю информативныхотрезков. При s ≈ 1,015 рождается общий цикл интерва-лов Γ5,Σ. В тот момент, когда и он теряет устойчивость(при s ≈ 1,025), еще существует устойчивый цикл ин-тервалов, связанный с другим информационным блоком97583, и фазовая траектория притягивается к нему.

При s = s2 ≈ 1,07 теряет устойчивость общий интер-вальный цикл для блока 97583, т.е. в аттракторе появля-ется "дырка", через которую фазовая траектория можетпокидать его, как показано на рис. 3, г. Таким образом,в фазовом пространстве динамической системы не ос-тается устойчивых структур. При этом фазовая траекто-рия системы начинает блуждать по фазовому простран-ству системы. В момент своего появления "дырки" наинтервальных циклах малы, и траектория проводитбольшую часть времени в окрестности интервальныхциклов, но с увеличением наклонов "дырки" растут, иинвариантная мера отображения становится более рав-номерной.

Анализ бифуркационных диаграмм отображения сзаписанной информацией показывает, что при |s|<1единственными устойчивыми аттракторами в колеба-тельной системе являются информационные предель-ные циклы, а при 1 < |s| < s2 - соответствующие им хао-тические интервальные циклы. При |s| > s2 в нелинейнойдинамической системе наблюдается переход к глобаль-ному хаосу через перемежаемость "неустойчивые цик-лы интервалов – глобальный хаос".Запись информации на неустойчивых циклах и хао-тических аттракторах. Несмотря на то что движениепо циклу интервалов является хаотическим, он устой-чив и ограничен в фазовом пространстве.

Page 19: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

68

Рис. 6. Интервальные циклы отображения с информационным блоком 375, записанным на первом уровне

Интервальный цикл состоит из конечного числа не-прерывных интервалов, включающих в себя информа-тивные интервалы соответствующего информационногоцикла (или их часть) и небольшую часть примыкающихк ним неинформативных. Порядок обхода интерваловэтого хаотического аттрактора совпадает с порядкомобхода находящихся на них точек информационногопредельного цикла. Поэтому, если рассмотреть инфор-мационный поток aiai+1ai+2… (где ai = int(Nxi), а int(x) —целая часть x), порождаемый отображением xn+1 =

= ƒ(xn) при движении на этом хаотическом аттракторе,то окажется, что он представляет собой воспроизведе-ние записанного информационного блока.

Согласно алгоритму записи информации в одномер-ных отображениях [52, 53] для воспроизведения эле-мента информационного блока достаточно попаданиятраектории xi на соответствующий регион первогоуровня отображения. Как видно из распределений фазо-вой траектории, (см. например, рис. 6, а), это условиеможет не выполняться при записи на первом уровне из-

Page 20: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

69

за того, что интервальный цикл включает в себя частьнеинформативных интервалов, однако препятствие лег-ко может быть устранено путем уменьшения длиныинформативного интервала.

Таким образом, информация, записанная на устой-чивых предельных циклах одномерного отображенияпри |s|<1, не теряется в момент бифуркации рождениясоответствующего хаотического аттрактора, а обретаеткачественно новый носитель и может быть извлеченатак же, как и при записи на устойчивых предельныхциклах точек. Класс динамических объектов — носите-лей информации для метода записи в одномерных ди-намических системах, предложенного в [52, 53], можетбыть расширен за счет хаотических аттракторов. В этомслучае увеличивается и область параметра s, исполь-зуемая для записи информации на устойчивых аттрак-торах.

На рис. 6 приведены примеры использования хаоти-ческих аттракторов — интервальных циклов для записиинформации. На нем приведены фазовые портреты,инвариантные меры (распределение фазовой траекто-рии на отрезке [0, 1]) и временные реализации движе-ний в отображении для случая записи информационно-го блока 375 на первом уровне. На рис. 6, а изображенырешения для s = 1,125, а на рис. 6, б для s = -1,005.

При s < 0 и нечетном периоде информационногоцикла интервальный цикл рождается удвоенным(рис. 6, б). Соответствующий информационный потокпредставляет собой повторение записанного информа-ционного блока, поскольку последовательные значенияпеременной итерирования при движении на этом ат-тракторе укладываются в регионы первого уровня, со-ответствующие цифрам 3, 5 и 7.Перемежаемость и хаотическое сканирование памя-ти. Анализ бифуркационных диаграмм одномерныхотображений с записанной информацией показывает,что после потери устойчивости всех циклов интерваловв динамической системе реализуется режим переме-жаемости "хаос–хаос". При этом фазовая траекторияхаотически блуждает по всему фазовому пространству,посещая и области с записанной информацией. Если этудинамическую систему рассматривать как память, тотакой режим может быть использован для хаотическогосканирования памяти.

Запишем информацию на неустойчивых циклах ин-тервалов, используя область параметра s > s2. Если на-клон информативных участков ненамного больше s2,траектория будет "застревать" в окрестности интер-вального цикла на некоторое время, прежде чем поки-нуть его снова, так как вероятность ухода с него маласогласно (6). Если инвариантная мера отображения не-нулевая на всем единичном отрезке (или, по крайнеймере, в окрестности информативных интервалов), тра-ектория посещает окрестности всех циклов интервалов(а значит, и информативных предельных циклов), и на-

блюдается перемежаемость по отношению ко всем цик-лам, соответствующим записанной информации. Важноподчеркнуть, что в отличие от хорошо известного фе-номена перемежаемости, когда ламинарные (регуляр-ные) участки движения прерываются турбулентнымивсплесками, наблюдается перемежаемость между хао-тическими циклами интервалов и глобальным хаосом— движение на хаотическом аттракторе — интерваль-ном цикле перемежается блужданием по всему фазово-му пространству.

Если наклоны информативных участков s слишкомвелики, траектории покидают окрестности неустойчи-вых интервальных циклов, соответствующих записан-ной информации, очень быстро, в информационномпотоке присутствуют только "обрывки" записанныхобразов, и сканирование памяти не наблюдается.

Проиллюстрируем явление следующими примерами.

Рис. 7. Перемежаемость между двумя циклами

На рис. 7 приведен пример перемежаемости междуциклами, соответствующими информационным блокам97583 и 12345, записанным на втором уровне. Бифур-кационная диаграмма для этого отображения показанана рис. 5. Наклон информативных участков выбран вобласти перемежаемости s = 1,14 > s2. В этом случаесистема "блуждает" по окрестностям двух циклов.

На рис. 8 показана инвариантная мера отображениядля трех значений наклона s (s ≈ s2 ≈ 1,07, s = 1,15 иs = 2,0) в области перемежаемости. Из рис. 8 видно, чтоинвариантная мера всюду ненулевая в информативнойчасти отображения, причем при s ≈ s2 на ней видно не-сколько узких пиков, а пьедестал очень мал. Это объяс-няется тем, что фазовая траектория большую часть вре-мени проводит в окрестности информационных циклов(см. (6) и (7)), с увеличением s она становится болееравномерной.Запись информации на неустойчивых предельныхциклах и распознавание образов. Запись информациина неустойчивых циклах одномерного отображенияведется таким же образом, как и на устойчивых циклах,

Page 21: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

70

Рис. 8. Эволюция инвариантная меры отображения

с той лишь разницей, что теперь мультипликатор цикла(произведение наклонов информативных участков

функции отображения, через которые проходит цикл)по модулю больше единицы [54, 55].

В таком отображении нет устойчивых предельныхциклов, соответствующих записанным информацион-ным блокам. Если в отображении появляется устойчи-вый предельный цикл, не связанный с записанной ин-формацией, его можно исключить локальной коррекци-ей функции отображения, не нарушая структуры неус-тойчивых циклов с записанной информацией. При от-сутствии устойчивых предельных циклов траекториясистемы хаотически блуждает по фазовому пространст-ву, посещая его большую часть.

Распознавание информации в такой системе можноорганизовать следующим образом. Пусть записано Mинформационных блоков и системе предъявляется по-следовательность длиной L. Она рассматривается каквнешний сигнал, управляющий состоянием системы.Правила воздействия этого сигнала на отображениетаковы:

если сигнал содержит фрагменты, соответствующиеинформативным участкам отображения, то наклон этихучастков устанавливается меньше единицы;

в противном случае сигнал не меняет функции ото-бражения.

Если входной сигнал соответствует одному из запи-санных образов, в отображении появляются информа-тивные участки с наклоном меньше единицы. Мультип-ликатор цикла, соответствующего входному сигналу,становится меньше единицы. В фазовом пространствесистемы появляется устойчивый цикл, притягивающийтраектории практически при любых начальных условий.Сходимость траектории к этому устойчивому циклуможно трактовать как распознавание информации.

Подчеркнем, что в рассматриваемом случае в фазо-вом пространстве системы существует единственныйустойчивый цикл. Поэтому, если до изменения накло-нов информативных участков в динамической системесуществовал хаотический аттрактор с непрерывной ме-рой, пересекающей информативные участки отображе-ния, принадлежащие циклу, то послеизменения наклонов траектория неизбежно черезкакое-то время упадет на информативный участок исойдется к циклу. Это означает появление "дыры" вхаотическом множестве, через которую траектория пе-реходит от хаотического режима к регулярному, т.е.потерю устойчивости хаотическим множеством и пере-ход от устойчивого хаоса к метастабильному. Появле-ние перехода (кризис хаотического аттрактора) и по-зволяет реализовать распознавание информации.

Необходимо отметить, что вследствие единственно-сти устойчивого предельного цикла, возникающего врезультате кризиса, процесс распознавания практическине зависит от начальных условий для фазовой траекто-рии. Выбор начальных условий определяет только дли-тельность переходного процесса от метастабильного

Page 22: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

71

хаотического множества к устойчивому предельномуциклу, т.е. скорость распознавания.

Динамические свойства системы с записью инфор-мации на неустойчивых циклах показаны на примере стремя информационными блоками 97583, 14568 и 123,записанными на втором уровне (рис. 9). Алфавит со-стоит из 10 символов: цифр от 0 до 9. Кусочно-линейная функция ƒ(x) изображена на рис. 9, а.

Фазовая траектория исходного отображения с неус-тойчивыми циклами посещает все информативные уча-стки отображения (распределение показано на рис. 9, б,а реализация — на рис. 9, в). Предполагается, что этосвойство сохраняется, если возмущения, вносимые из-менением наклонов, малы.

Рис. 9. Функция, инвариантная мера и реализация для ото-бражения с тремя информационными блоками, записаннымина неустойчивых циклах

Последовательности 1231, 135681 и 946839 исполь-зуем как входные сигналы, т.е. возьмем записанныйинформационный блок без ошибок в первом случае, содной ошибкой во втором случае и с двумя ошибками втретьем. Во всех трех случаях возникает устойчивыйпредельный цикл, связанный с соответствующим ин-формационным блоком, и после переходного процесса,обусловленного блужданием траектории по метаста-бильному множеству, траектория притягивается к соот-

ветствующему устойчивому предельному циклу(рис. 10, а – в).

Рис. 10. Сходимость к соответствующим циклам при предъ-явлении чистого и искаженных образов

Адаптивная модель распознавания. В [17, 54, 55]введена также адаптивная модель обработки информа-ции на основе хаоса, представляющая собой одномер-ное отображение с информацией, записанной на неус-тойчивых циклах, управляемое внешним сигналом,влияющим на вид функции отображения.

Управляемыми элементами отображения, как и врассмотренной выше модели, являются наклоны ин-формативных участков, которые управляются входнымсигналом U. Однако в данном случае эти наклоны могутбыть разными. Если в i-й момент времени на входе ото-бражения присутствует информационный сигнал Ui ,соответствующий информативному участку j, то наклонучастка Ki

j уменьшается и может стать по модулюменьше единицы.

Чтобы сохранить работоспособность системы, вве-дем обратный процесс — релаксацию наклонов отрез-ков: если в момент времени i внешний сигнал Ui несоответствует информативному участку j, то наклон Ki

j

начинает релаксировать к начальному состоянию, т.е. кнаклону в отсутствие внешнего сигнала.

Обозначим максимальный наклон информативныхучастков C1. Тогда релаксационный процесс для j-го

Page 23: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

72

информативного участка на i-м шаге итерирования мо-жет быть описан уравнением

K ji+1 = λKi

j + C1(1 – λ),

где λ — скорость релаксации.Опишем процесс уменьшения наклона информатив-

ных участков. Пусть C2 — минимальный наклон ин-формативных участков. Процесс сходимости наклонаинформативного участка к состоянию C описываетсяуравнением

K ji+1 = αKi

j + (1 – α)C2,

где α — коэффициент скорости сходимости наклона кC2. Общее уравнение, описывающее динамику Ki

j, вы-глядит так

Kji+1 = [αKi

j + (1 – α)C2]δij + [λKij + C1(1 – λ)](1 – δij),

(8)

где δij — символ Кронекера (δij = 1, если на i-м шагевнешний сигнал соответствует информативному участ-ку j, иначе δij = 0).Модель «кратковременной» и «долговременной»памяти [17, 54, 55]. Покажем теперь, что понятия дол-говременной памяти и кратковременной памяти, широ-ко применяемые в исследованиях принципов функцио-нирования памяти в живых системах, имеют свои ана-логи в динамике системы (8).

Начнем с долговременной памяти. После того какинформационные блоки записаны, они существуют всистеме до тех пор, пока существует она сама, а носи-телями информации являются неустойчивые циклы.Запись информации на неустойчивые циклы можно ин-терпретировать как долговременную запись или какдолговременную память. Информация присутствует всистеме, но чтобы извлечь ее, требуется внешнее воз-действие. Таким внешним воздействием является сиг-нал, содержащий информационные блоки, записанные всистеме, в точном виде или с ошибками. В общем слу-чае система не реагирует на другую информацию, оста-ваясь в хаотическом состоянии. После предъявлениявнешнего сигнала на месте одного из неустойчивыхциклов возникает устойчивый предельный цикл. Послепрекращения действия внешнего сигнала этот цикл не-которое время остается устойчивым, пока наклоны со-ответствующих информативных участков не срелакси-руют к исходному состоянию. В течение некотороговремени система остается в окрестности уже ставшегонеустойчивым предельного цикла. Такое поведениесистемы может рассматриваться как кратковременнаяпамять.

Проиллюстрируем это на примере трех информаци-онных блоков 123, 14568, 97583, записанных на

Рис. 11. Память в динамической системе (цикл)

втором уровне (рис. 11). На вход системы подаетсявнешний сигнал, состоящий в периодическом повторе-нии информационного блока 123. В это же время начи-наются итерации с начальными условиями x0 = 0,7, несвязанными с внешним сигналом.

Внешний сигнал присутствует в течение 400 итера-ций, после чего он прекращается. Приблизительно че-рез 220 - 230 итераций фазовая траектория падает напоявившийся устойчивый цикл. Она остается в окрест-ности цикла (вплоть до ~ 410 итераций), пока действу-ет внешний сигнал, плюс время потери устойчивостициклом после прекращения действия внешнего сигнала,плюс время "убегания" траектории с неустойчивогоцикла. Время потери устойчивости предельным цикломопределяется параметрами α и λ.Применение синхронизации для извлечения инфор-мации. Идея извлечения записанной на неустойчивыециклы информации при помощи синхронизации осно-вана на возможности синхронизовать произвольнуютраекторию любого отображения путем воздействия нанего внешнего сигнала, представляющего собой все иливыборочные отсчеты данной траектории [65]. Воздей-ствие внешнего сигнала на отображение состоит в под-мешивании этого сигнала к переменной состояния дан-ного отображения. Весовой коэффициент подмешива-ния внешнего сигнала характеризует степень воздейст-вия и называется коэффициентом связи. Нетрудно пока-зать, что для заданной траектории существует мини-мальное значение коэффициента связи, при которомвозможна ее синхронизация при указанном воздейст-вии. Это минимальное (пороговое) значение однознач-но определяется первым ляпуновским показателем дан-ной траектории. Существенно, что для устойчивой тра-ектории пороговое значение коэффициента связи равнонулю, т.е. ее синхронизация возможна при сколь угодномалом значении этого коэффициента, а для неустойчи-вой траектории порог синхронизации имеет положи-

Page 24: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

73

тельное значение, растущее с ростом неустойчивостиэтой траектории.Таким образом, воздействуя на отображения с записан-ной на неустойчивые циклы информацией внешнимсигналом, представляющим собой все или выборочныеотсчеты одного из этих циклов, можно синхронизоватьданный цикл, что соответствует извлечению записаннойна него информации.

Запись информации на устойчивых циклахдвумерных и многомерных отображений

Синтез двумерных отображений. Принципы построе-ния двумерных отображений с заданными устойчивымии неустойчивыми предельными циклами были предло-жены в [59].

Пусть, как и в случае записи информации на пре-дельные циклы одномерных отображений, необходимозаписать информационный блок (2).

При записи этого информационного блока на второмуровне одномерного отображения, его нужно преобра-зовать последовательность пар элементов:

(a1, a2), (a2, a3), …, (an, a1). (9)

Предполагается, что пары элементов не повторяют-ся, в противном случае необходимо предварительноекодирование последовательности, как это было показа-но выше.

Рассмотрим теперь возможность записи блока надвумерное отображение единичного квадрата[0, 1]x[0, 1] в себя. Каждому элементу j из заданногоалфавита длиной N ставим в соответствие интервалы наосях X и Y:

+=

+=

Nj

NjI

Nj

NjI y

jxj

1,,1, , j = 1, …, N

и точки в середине интервалов (j + 0,5)/N. В этом слу-чае, паре элементов (am, am+1) из последовательности (9)соответствует квадрат

+=× ++

+ Na

Na

Na

NaII mmmm

aa mm

1,1, 111

,

и точка (xm, ym) в середине этого квадрата. Информаци-онному блоку можно поставить в соответствие цикл,проходящий через точки (x1, y1), (x2, y2), …,(xn, yn). Необходимо отметить, что xm+1 = ym. Отсюдаследует, что искомое двумерное отображение должноиметь вид

).,(,

1

1

mmm

mm

yxfyyx

==

+

+ (10)

Выберем функцию f(x, y) так, чтобы отображение(10) имело единственный предельный цикл, соответст-вующий записываемому информационному блоку.

Пусть символ am–1 исходной последовательности —i-й элемент алфавита, am — j-й, am+1 — k-й элемент ал-фавита. Допустим, что точка (x, y) принадлежит квадра-ту Ii × Ij (такие квадраты в дальнейшем будем называтьинформативными). Определим функцию f(x, y) в дан-ном квадрате таким образом, чтобы она задавала плос-кость Sij, проходящую через точки

∆−++

Nk

Nj

Ni 5,0,1, ,

∆−+

Nk

Nj

Ni 5,0,, ,

∆−+++

Nk

Nj

Ni 5,0,1,1 пространствa XYZ. При этом

в квадрате Ii × Ij

Nk

Nixyxf 5,05,02),( ++

+−∆= .

Величина 2∆ определяет угол наклона плоскости Sijк плоскости XY.

Допустим теперь, что точка (x, y) лежит внутри не-информативного квадрата Ii × Ik, т.е. в последовательно-сти (9) нет пары, состоящей из i-го и k-го элементовалфавита. Тогда ƒ(x, y) в пределах этого квадрата опре-деляется плоскостью Sij, проходящей через точки

+

NNk

Ni ε,1, ,

NNk

Ni ε,, ,

++

NNk

Ni ε,1,1 . В

этом случае

NNNNixyxf ε+

−⋅−= 11

/1/),( , (11)

где малая величина ε (∼10–2) вводится для того, чтобыизбежать появления ложного положения равновесияотображения (10) в точке (0, 0).

Таким образом, функция ƒ(x, y) отображения (10) винформативных квадратах задается функцией (7), а внеинформативных — функцией (11). Можно показать[56], что для того чтобы циклы, записанные на такоеотображение, были устойчивы, необходимо, чтобы на-клоны функции ƒ(x, y) в информативных квадратах кплоскости XY были меньше единицы, т.е. 2∆ < 1. Ана-логичным образом может быть записан не один инфор-мационный блок.П р и м е р 3 . Пусть имеется алфавит, состоящий из 10цифр 0, 1, 2, ..., 9 и требуется записать на двумерное

Page 25: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

74

отображение один информационный блок 174. Искомоеотображение приведено на рис. 12.Оценка информационной емкости метода записиинформации на двумерные отображения. В [55, 60]рассматривался вопрос об информационной емкостизаписи информации на отображения. Было показано,что максимальное количество информации, которуюможно записать на отображение, равно N q символов изlog2N бит каждый. При использовании одинарной точ-ности вычислений с учетом того, что длина стороныинформативного отрезка одномерного отображения(равная (1/N) q) должна быть больше 10–8, емкость запи-си составляет 105 … 106 байт. В случае же использова-ния двумерного отображения длина стороны информа-тивного квадрата равна 1/N, поэтому емкость записивозрастает до 1011 … 1012 байт.

Рис. 12. Двумерное отображение с одним информационнымциклом

Структура бассейнов притяжения циклов двумер-ных отображений. Известно, что в фазовом простран-стве нелинейной динамической системы может сущест-вовать несколько различных аттракторов. Даже в слу-чае простейших одномерных и двумерных отображениймножество значений всех начальных условий стремитсяк данному аттрактору, может иметь сложную структуруи не являться областью в строгом математическом оп-ределении. Поэтому для обозначения точек притяженияаттрактора употребляется термин "бассейн притяже-ния".

Бассейны притяжения аттракторов нелинейных ди-намических систем могут быть фрактальными, дажекогда аттракторами являются устойчивые положенияравновесия [46]. Среди фракталов важное место зани-мают самоаффинные фракталы, которые можно разбитьна части, получаемые из целого фрактала путем аффин-ных преобразований (включающих вращение, сжатиеили растяжение и параллельный перенос). Любая такая

часть в отдельности, также обладает свойством само-аффинности1.

Рис. 13. Отображение с двумя информационными циклами

Проиллюстрируем это на примере бассейнов притя-жения двух циклов двумерного отображения, на кото-ром записаны информационные блоки 97583 и 12345.Функция отображения ƒ(x, y) показана нарис. 13, а бассейны притяжения изображены нарис. 14. Черным цветом выделены точки единичногоквадрата, из которых траектория притягивается к циклу,соответствующему информационному блоку 97583, абелые зоны — точки единичного квадрата, из которыхтраектория притягивается к циклу, соответствующемублоку 12345. Фрактальная структура бассейнов притя-жения (рис. 14) характеризуется тем, что области бас-сейнов притяжения обладают свойством подобия. На-пример, структура бассейнов притяжения в квадрате[0,4; 0,5] × [0,6; 0,7] (рис. 14, б) с коэффициентом 1/10подобна структуре бассейнов притяжения во всем еди-ничном квадрате [0, 1] × [0, 1](рис. 14, а). Кроме того, единичный квадрат с помощьюаффинного преобразования, состоящего из зеркальногоотражения относительно диагонали (0, 0) – (1, 1) и сжа-тия вдоль оси X в 10 раз, можно преобразовать в прямо-угольник [0, 0,1] × [0, 1].

Фрактальную структуру областей притяжения(рис. 14) можно описать с помощью набора аффинныхпреобразований, которые осуществляют сдвиг, враще-ние и сжатие различных областей единичного квадрата.

1 Множество S является самоаффинным по отношению к по-следовательности N аффинных преобразований αn, если вы-полняется условие S = ∪αnS, причем αnS∩αmS = ∅, при n≠m.Множество S разбивается на N частей (никакие две из них непересекаются), каждая из которых получается из целого припомощи одного из аффинных преобразований.

Page 26: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

75

Разделим изображение на квадраты: Sij == [(i–1)/N, i/N) × [(j–1)/N, j/N), i, j = 1, …, N. Зададимнабор областей единичного квадрата, включающий:

прямоугольники вида Ri = [(i–1)/N, i/N) × [0, 1),i = 1, …, N;

любой из черных информативных квадратов с дли-ной стороны 1/N, например RN+1 = [(i–1)/N, i/N) ×× [(j–1)/N, j/N);

любой белый информативный квадрат, напримерRN+2 = [(i–1)/N, i/N) × [(j–1)/N, j/N).

Рис. 14. Фрактальная структура бассейнов притяжения

Если Sij является информативным квадратом, т.е. яв-ляется полностью черным (или белым) квадратом, то вэтом случае он может быть получен сдвигом RN+1 (илиRN+2) в соответствующую точку единичного квадрата.

Пусть квадрат Sij не является информативным. Тогдаон будет образом области Rj при отображении

,;/

RS

RS

xyNyx

==

где (xSij, yS

ij) — точка Sij, (xR

j, yRj) — точка области Rj.

Таким образом, аналитически описаны фрактальныеобласти притяжения циклов двумерных отображений с

записанной информацией. Теперь, задав некоторое на-чальное распределение черного и белого цветов дляединичного квадрата, и применив к каждой точке квад-рата соответствующее отображение, после несколькихитераций получим исходную структуру областей при-тяжения.

Отметим, что аффинные преобразования не зависятот значения ∆, т.е. вид бассейнов притяжения не зави-сит от ∆ (при |∆|<1). Процедура описания бассейновпритяжения с помощью аффинных преобразованийаналогична методу, используемому М. Барнсли [61] прифрактальном сжатии отображений. Это указывает навзаимосвязь различных методов нелинейной динамикии фрактальной геометрии, применяемых в системахобработки информации, и на возможность полученияновых свойств при взаимном дополнении этих методов.Синтез многомерных отображений. Рассмотримобобщение изложенного выше метода на q-мерные ото-бражения. Для этого из исходной последовательностиобразуем последовательность вида

(a1, a2, ..., aq), (a2, a3, ..., aq+1), ..., (an, a1, ..., aq–1). (12)

Будем полагать, что в последовательности (12) нетсовпадающих элементов. Если они есть, то, как и вдвумерном случае, исключаем их, расширяя алфавит.Поставим вектору, состоящему из элементов алфавитаaj, aj+1, ..., aj+q+1 в соответствие q-мерный куб

.,1

...,1

,1...

1111

11

−××

×

×

=×××

−+−+++

−++

Nm

Nm

Nm

Nm

Nm

NmIII

qiqiii

iimmm qiii

(13)

Цикл длиной n, на котором записывается информа-ция, будет состоять из точек

((m1 – 0,5)/N, (m2 – 0,5)/N, ..., (mq – 0,5)/N);((m2 – 0,5)/N, (m3 – 0,5)/N, ..., (mq+1 – 0,5)/N);

...((mn – 0,5)/N, (m1 – 0,5)/N, ..., (mq–1 – 0,5)/N).

Отображение, имеющее данный устойчивый цикл,будем искать в следующем виде

xj+1(1) = xj

(1);xj+1

(2) = xj(2);

...xj+1

(q) = f(xj(1), xj

(2),…,xj(q)).

Функция f (Xi), где Xi = (xj(1), xj

(2),…, xj(q)), при принад-

лежности точки Xi "информативному" кубу (13) опреде-ляется выражением:

Page 27: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

76

Nm

NmxXf qii

ji5,0

)( )1( −+

−∆= + , (14)

а если Xi лежит в "неинформативной" областиXi-мерного единичного куба, то

./1

/)()1(

NNmxXf ii

i−= (15)

По аналогии с двумерным случаем ∆ определяет ус-тойчивость цикла, поскольку его мультипликаторы рав-ны : λi = (–1)∆n/q, i = 1, …, n.

Функция ƒ(x, y) определяет двумерную поверхностьв трехмерном пространстве (xi, yi, yi+1) (рис. 13), а ƒ(Xi)задаваемая (14) и (15), определяет q-мерную гиперпо-верхность в (q+1)-мерном пространстве (Xi, x(q)

j+1).

Запись и восстановление многомерных сигналов наотображениях. Выше рассматривалась запись на ото-бражение последовательности (12), в то же время мож-но записать на отображение последовательность

(a1, b1, ..., r1), (a2, b2, ..., r2), …, (an, bn, ..., rn),

где ai — элемент алфавита AN; bi — элемент, вообщеговоря, другого алфавита BL; ...; а ri — элемент алфави-та RM.

Метод записи многомерных сигналов на отображе-ниях, обладающий возможностями быстрого ассоциа-тивного поиска, может найти практическое применениев геофизических исследованиях, томографии, при по-строении иерархических систем и т.п.

Примеры применения хаотических процессоров

Для демонстрации возможностей хаотических про-цессоров были созданы два программных комплекса.Оба программных продукта могут работать на IBM со-вместимых компьютерах с i80386 процессором иWindows 3.1.Программа "Associative Memory for Pictures" (PictureProcessor). разработана для записи и извлечения черно-белых и цветных изображений [63]. Она позволяетпользователю записывать изображения в виде устойчи-вых предельных циклов одномерных и двумерных ото-бражений и извлекать их, предъявляя произвольныефрагменты изображения (рис. 15, а). Используемыйалгоритм устойчив к ошибкам и обеспечивает восста-новление информации в присутствие шумов (рис. 15, б).

а)

б)Рис. 15. Рабочее окно программы "Associative Memory forPictures"

Программа "FacsData Wizard". представляет собойперсональную систему управления факсимильнымидокументами, обладающую возможностями ассоциа-тивного доступа. Она дает возможность пользователюзаписывать тексты в виде предельных циклов отобра-жений. Поиск документа осуществляется по запросу наестественном языке путем набора во встроенном тек-стовом редакторе нескольких строк текста или предъ-явления системе фрагмента записанного документа. Вответ система выдает искомый документ (рис. 16), есливходной информации достаточно для его однозначногопоиска, либо предлагает набор вариантов, близких кзапросу. При необходимости можно получить факси-мильную копию найденного документа. Наличие оши-бок в запросе и при преобразовании исходной инфор-мации в текстовую практически не сказывается на каче-стве поиска.

Описанный метод записи информации в динамиче-ских системах защищен патентом Российской Федера-ции № 2050072 [67].

Page 28: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

77

Рис. 16. Рабочее окно программы"FacsData Wizard"

Более подробную информацию о программном про-дукте "FacsData Wizard" можно найти на Web-страницеhttp://www.neurosoftdata.com.

Заключение

В обзоре рассмотрена возможность использования хао-са для обработки информации. Проведен анализ экспе-риментальных данных и теоретических представленийоб информационных процессах в живых системах.Предложена и исследована модель хаотического про-цессора.

При построении модели пришлось пересмотреть не-которые гипотезы, касающиеся механизмов обработкиинформации в нелинейных динамических системах.Оказалось, например, что хорошим "хранилищем" ин-формации являются циклы, а не странные аттракторы.Другой важный момент заключается в том, что при ис-пользовании записи информации на аттракторах дина-мических систем для идентификации записанной ин-формации с внешним сигналом нет необходимостиосуществлять корреляцию этого сигнала со всеми запи-санными в системе сигналами. Принципы записи и из-влечения информации позволяют произвести сопостав-ление внешнего сигнала с его записанной копией (еслитакая имеется) без перебора. Платой за это являетсянекоторое снижение робастности, а выигрышем — по-лучение быстрого коррелятора, способного работать набольших массивах данных. Так в программных ком-плексах "Associative memory for pictures" и "FacsDataWizard" типичное время поиска составляет доли секун-ды.

Следует отметить удивительно высокую производи-тельность модели хаотического процессора, результа-том которой является возможность решения достаточносложных и объемных задач путем симуляции их наобычных компьютерах. Представляется, что дело здесьне только в удачной модели процессора и отработанно-

сти алгоритмов, но в и свойствах самих систем с хао-сом. В частности, в их пластичности и быстрой реакциина внешние воздействия.

В обзоре приведены примеры использования хаоти-ческих процессоров, которые дают некоторое представ-ление о том, где и с какой целью могут применятьсяподобные системы. Однако, безусловно, сфера их ис-пользования не ограничивается отмеченными направ-лениями и определяется совокупностью свойств хаоти-ческих процессоров, к которым относятся:

возможность работы с любыми видами данных (тек-сты, графика, видео, звук и др.);

отсутствие необходимости в предварительномструктурировании информации;

возможность дозаписи новой и удаления устаревшейинформации;

быстрый ассоциативный доступ к большим объемаминформации, возможность поиска информации по еепроизвольным фрагментам;

нечувствительность к ошибкам записи и сохранениеработоспособности в присутствии шумов.

Литература

1. Осовец С.М., Гинзбург Д.А., Гурфинкель В.С., ЗенковЛ.Р., Латаш Л.П., Малкин В.Б., Мельничук П.В., Пас-тернак Е.Б. Электрическая активность мозга: механиз-мы и интерпретация. - УФН, 1983, т. 141, № 1, c. 103–150.

2. Rapp P.E., Zimmerman I.D., Albano A.M., Deguzman G.C,.and Greenbaum N.N. Dynamics of spontaneous neural ac-tivity in the simian cortex: the dimension of chaotic neu-rons. - Phys. Lett. A, 1985, vol. 110, no. 6, p. 335–338.

3. Babloyantz A., Salazar J.M., and Nicolis G. Evidence ofchaotic dynamics of brain activity during the sleep cycle. -Phys. Lett. A, 1985, vol. 111, no. 3, pp. 152–156.

4. Babloyantz A. and Destexhe A. Low-dimensional chaos inan instance of epilepsy. - Proc. Natl. Acad. Sci. USA, 1986,vol. 83, pp. 3515–3517.

5. Destexhe A., Sepulchre J.A., and Babloyantz A. A compara-tive study of the experimental quantification ofdeterministic chaos. - Phys. Lett. A., 1988, vol. 132,pp. 101–106.

6. Babloyantz A. and Destexhe A. - in: Temporal Disorder inHuman Oscillatory Systems. Springer Series in Synergetics,no. 36, Eds. Rensing L., Van der Heiden U., and MackeyM.C. Berlin. Springer, 1987, p. 48.

7. Frank G.W., Lookman T., Nerenberg M.A.H., Essex C.,Lemiaux J., and Blume W. Chaotic Time Series Analyses ofEpileptic Seizures. - Physica D, 1990, no. 3, pp. 427–438.

8. Freeman W.J. Simulation of chaotic EEG pattern with adynamic model of the olfactory system. - Biol. Cyb., 1987,vol. 56, p. 139.

9. Babloyantz A. and Destexhe A. Nonlinear analysis andmodeling of cortical activity. - Presented at the first Euro-pean conference on Mathematics Applied to Biology andMedicine, France, 1991.

10. Destexhe A. and Babloyantz A. Deterministic chaos in amodel of the thalamo-cortical system. - in: Self-organization

Page 29: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

Успехи современной радиоэлектроники №10, 1997

78

Emerging Properties and Learning, New York, Plenumpress, ARW Series, 1991.

11. Skarda C.A. and Freeman W.J. How Brains Make Chaos inOrder to Make Sense of The World. - Behavioral and BrainSciences, 1987, vol. 10, pp. 161–195.

12. Freeman W.J., Yao Y., and Burke B. Central pattern gener-ating and recognition in olfactory bulb: a correlation learn-ing rule. - Neural Networks, 1988, vol. 1, p. 277.

13. Eisenberg J., Freeman W.J., and Burke B. Strange attractorthat governs mammalian brain dynamics shown by trajec-tory of EEG. - Neural Networks, 1988, vol. 2, p. 315.

14. Yoong Y. and Freeman W.J. Model of Biological PatternRecognition with Spatially Chaotic Dynamics. - NeuralNetworks, 1990, vol. 3, no. 2, pp. 153–170.

15. Tsuda I. A hermeneutic process of the brain. - Progress ofTheoretical Physics, Supplement, 1984, vol. 79,pp. 241–259.

16. Tsuda I., Koerner E., and Shimizu H. Memory dynamics inasynchronous neural networks. - Progress of TheoreticalPhysics, 1987, vol. 78, pp. 51–71.

17. Дмитриев А.С. Хаос и обработка информации в нели-нейных динамических системах. - Радиотехника и Элек-троника, 1993, т. 38, № 1, c. 1–24.

18. Дмитриев А.С., Куминов Д.А. Хаотическое сканирова-ние и распознавание образов в нейроподобных системахс обучением. - Радиотехника и электроника, 1994, т. 39,c. 633–641.

19. Шарковский А.Н. Сосуществование циклов непрерыв-ного преобразования прямой в себя. – Украинский ма-тематический журнал, 1964, № 1, c. 61–71.

20. Шарковский А.Н., Майстренко Ю.Л., Романенко Е.Ю.Разностные уравнения и их приложения. - Киев: Наук.думка, 1986.

21. Шарковский А.Н., Коляда С.Ф., Сивак А.Г., ФедоренкоВ.В. Динамика одномерных отображений. - Киев: Нау-кова Думка, 1989.

22. Шильников Л.П. Об одном случае существования счет-ного множества периодических движений. - ДАНСССР, 1965, т. 160, № 3, c. 558–561.

23. Смейл С. Дифференцируемые динамические системы. -УМН, 1970, т. 25, № 1, c. 113–185.

24. Afraimovich V.S. and Shilnikov L.P. On Strange Attractorsand Quasiattractors. - Nonlinear Dynamics and Turbulence,Ed.G.I. Barenblatt. Boston, London, Melburn, Pitmen,1983, pp. 1-34.

25. Алексеев В.М. Символическая динамика. - Одиннадца-тая математическая школа, Киев, 1976.

26. Колмогоров А.Н. Три подхода к определению понятияколичества информации. - Проблемы передачи инфор-мации, 1965, т. 1, c. 3–7.

27. Алексеев В.М., Якобсон М.В. Символическая динамика игиперболические динамические системы. Добавление ккниге Р. Боуэна. Методы символической динамики. -М.: Мир. 1979, c. 196–240.

28. Procaccia I. Universalities in Condensed Matter. - Proc.Phys., vol. 32, Ed. Jullien R., Springer, 1988, p.213.

29. Auerbach D., Cvitanovic P., and Eckmann J.-P. - Phys.Rev. Lett., 1987, vol. 58, no. 23, p. 2387.

30. Gunaratne G.N. and Procaccia I. Organization of Chaos. -Phys. Rev. Lett, 1987, vol. 59, no. 13, pp. 1377–1380.

31. Cvitanovic P. Invariant Measurement of Strange Sets in

Terms of Cycles. - Physical Review Letters, 1988, vol. 61,no. 24, pp. 2729–2732.

32. Wiegrinch W. and Tennekes H. On the Information Flow forOne-Dimensional Maps. - Physics Letters A, 1990,vol. 144, no. 3, pp. 145–152.

33. Shaw R.S. - Z. Naturfursch, 1981, vol. 36a, p. 80.34. Шустер Г. Детерминированный хаос. Введение. —

М.: Мир, 198835. Farmer J.D. - Z. Naturfusch, 1982, vol. 37a, p. 1304.36. Matsumoto K. and Tsuda I. Calculation of information flow

rate from mutual information. - J. Phys. A. Math. Gen,1988, vol. 21, pp. 1405–1414.

37. Matsumoto K. and Tsuda I. Extended information in one-dimensional maps. – Physica D, vol. 26D, 1987,pp. 347–357.

38. Voges W., Atmanspacher H., and Scheingraber H. Determi-nistic Chaos in Accrecting Systems: Analysis of the X-RayVariability of Hercules X. - The Astrophysical Journal,1987, vol. 320, pp. 794–802.

39. Atmanspacher H., Scheingraber H., and Voges W. GlobalScaling Properties of the Chaotic Attractor Reconstructedfrom Experimental Data. - Phys. Rev. A, 1988, vol. 37,pp. 1314–1322.

40. Николис Дж. Динамика иерархических систем. -М.: Мир, 1989.

41. Nicolis J.S. Chaotic dynamics as applied to Informationprocessing. - Rep. Prog. Phys., 1986, vol. 49,pp. 1109–1187.

42. Nicolis J.S. Chaos and Information processing. - A Heuris-tic Outline. Singapore, New Jersey, London, Hong Kong,World Scientific, 1990.

43. Фримэн У.Дж. Физиология восприятия. - В мире науки.М.: Мир, 1991, № 4, c. 26–34.

44. Nicolis J.S. and Tsuda I. Chaotic dynamics of informationprocessing: the "magic number seven plus–minus two" re-visited. - Bulletin of Mathematical Biology, 1985, vol. 47,pp. 343–365.

45. Babloyantz A. and Lourenco. Computation with Chaos: AParadigm for Cortical Activity. - Proc. Natl. Acad. Sci.USA, 1984, vol. 91, pp. 9027–9031.

46. Grebogi C., Ott E., and Yorke J. - Phys. Rev. Lett., 1983,vol. 50, p. 935.

47. Lewenstein M. and Nowak A. Fully connected neural net-works with self-control of noise levels. - Phys. Rev. Let.,1989, vol. 62, pp. 225–228

48. Renals S. and Rohwer R. A study of network dynamics. -Journ. Stat. Phys., 1990, vol. 58, no. 5/6.

49. Костылев И.А., Малинецкий Г.Г., Потапов А.Б. Корре-ляции между образами как параметры порядка в ней-ронных сетях. - Препринт ИПМ РАН, 1992, № 43.

50. Hopfield J.J. and Tank D.W. Computing with neural cir-cuits: a model. - Science, 1986, vol. 233, pp. 625–633.

51. Peretto P. On the dynamics of memorization processes. -Neural Networks, 1988, vol. 1, pp. 309–322.

52. Дмитpиев A.С., Запись и восстановление информации водномерных динамических системах. - Радиотехника иэлектроника, 1991, т. 36, № 1, c. 101–108.

53. Dmitriev A.S., Panas A.I., and Starkov S.O. Storing andrecognition information based on stable cycles of one-dimensional maps. - Phys. Lett. A, 1991, vol. 155,pp. 494-499.

Page 30: Ю.В.Андреев, А.С.Дмитриев, Д.А.Куминов "Хаотические процессоры"

№10, 1997 Зарубежная радиоэлектроника

79

54. Andreyev Yu.V., Belsky Yu.L., and Dmitriev A.S. Informa-tion processing in nonlinear systems with dynamic chaos. -Proc. Int. Seminar Nonlinear Circuits and Systems, Mos-cow, 1992, vol. 1, pp. 51–60.

55. Andreyev Yu.V., Dmitriev A.S., and Starkov S.O. Informa-tion processing in 1-D systems with chaos. - IEEE Transac-tions on Circuits and Systems, 1997, vol. 44, pp. 21–28,

56. Майстренко В.Л., Майстренко Ю.Л., Сушко И.М. Ат-тракторы кусочно-линейных отображений прямой иплоскости. – Киев: 1992. Препринт, Ин-т МатематикиАН Украины.

57. Майстренко В.Л., Майстренко Ю.Л., Сушко И.М. Би-фуркационные явления в генераторах с линиями за-держки. - Радиотехника и электроника, 1994, т. 39,с. 1367.

58. Grebogi C., Ott E., and Yorke J.A. Critical exponent of cha-otic transients in nonlinear dynamic systems. - Phys. Rev.Lett., 1986, vol. 57, p. 1284.

59. Aндpеев Ю.В., Бельский Ю.Л., Дмитpиев A.С. Зaпись ивосстaновление инфоpмaции с использовaнием устойчи-вых циклов двумерных и многомерных отобpaжений. -Paдиотехникa и электpоникa, 1994, т. 39, c. 114–123.

60. Andreev Yu.V., Dmitriev A.S., Chua L.O., and Wu C.W. As-sociative and Random Access Memory Using One-Dimensional Maps. – Int. J. Bifurcations and Chaos, 1992,vol. 3, pp. 483–504.

61. Barnsley M. Fractals Everywhere. - Academic Press Inc.1988.

62. Andreyev Yu.V., Belsky Yu.L., Dmitriev A.S., and KuminovD.A. Information processing using dynamical chaos. - IEEETransactions on Neural Networks, 1996, vol. 7,pp. 290–291.

63. Andreyev Yu.V., Dmitriev A.S., Kuminov D.A., Chua L.O.,and Wu C.W. 1-D Maps, Chaos and Neural Networks forInformation Processing. - Int. J. Bifurcations and Chaos,1996, vol. 6, pp. 627–646.

64. Starkov S.O, Andreyev Yu.V., Dmitriev A.S., Matveev M.A.,and Shirokov M.Ye. Synchronization in the map with storedinformation. - 4th Workshop on Nonlinear Dynamics ofElectronic Systems, Seville, Spain, 1996, pp. 299–303.

65. Рабинович, М.И., Хаос и нейродинамика. — Изв.вузов, Сер. Радиофизика, 1996, т. 39, № 6, с. 757–769.

66. Дмитриев А.С., Андреев Ю.В., Бельский Ю.Л., КуминовД.А., Панас А.И., Старков С.О., Способ распознаванияобразов, – Патент Российской Федерации № 2050072 сприоритетом от 3.3.1994, выдан 10.12.1995.

Поступила 23 мая 1997 г.

Андреев Юрий Вениаминович (1960 г.р.) – канд. физ.-мат. наук, научн. сотрудникИРЭ РАН.Области научных интересов: нелинейная динамика, обработка информации в динамиче-ских системах с хаосом.

Дмитриев Александр Сергеевич (см. стр. 26)

Куминов Дмитрий Алексеевич (1967 г.р.) – канд. физ.-мат. наук, научн. сотрудникИРЭ РАН.Области научных интересов: нелинейная динамика, обработка информации в динамиче-ских системах с хаосом, нейронные сети со сложным поведением.