Upload
cuni
View
0
Download
0
Embed Size (px)
Citation preview
1
Dita Malečková
Informační věda a teorie komplexity
Text ke zkoušce Informační věda
Ústav informačních studií a knihovnictví Filosofická fakulta
Univerzita Karlova v Praze
V/2013
2
Informační věda a teorie komplexity
Obrazová analýza z hlediska informační vědy využívající pojem PIG (Point Information Gain, informační přínos bodu) a PIE (Point Information Gain
Entropy, entropie informačního přínosu bodu)/Image analysis from the point of view of the information theory using the notion of PIG (Point Information Gain)
and PIE (Point Information Gain Entropy)
Ve spolupráci s: Dalibor Štys, Jan Urban, Anna Zhyrova, Renata Rychtáriková,
Tomáš Náhlík, Dalibor Štys jr. Laboratoř aplikované systémové biologie, Škola komplexních systémů
Fakulta rybářství a ochrany vod, Jihočeská univerzita
Osnova OSNOVA 2
ČÁST I 3 ÚVOD DO PROBLEMATIKY 3 1. ENTROPIE A INFORMACE 3 1.1 CLAUSIUS 4 1.2 BOLTZMANN 4 1.3 MAXWELLŮV DÉMON 5 1.4 SZILARD 6 1.5 SHANNON 6 1.6 RÉNYI 8 1.7 INFORMACE A TVAR 9 2. KOMPLEXITA 11
ČÁST II 14 4. ŠKOLA KOMPLEXNÍCH SYSTÉMŮ 14 5. DEFINICE ZÁKLADNÍCH POJMŮ TEORIE DYNAMICKÝCH SYSTÉMU A POJMŮ PIG (POINT INFORMATION GAIN), PDG (POINT DIVERGETION GAIN), PIE (POINT INFORMATION ENTROPY) A PIED (POINT INFORMATION ENTROPY DENSITY) 15 6. KUPKOVA GEOMETRIE MYŠLENÍ 19 7. POPIS ANALÝZY 21
ZÁVĚR 24 ZDROJE 27
3
ČÁST I
Úvod do problematiky
Ve svém studijním záměru jsem si vytýčila cíl zkoumat to, co se na nejobecnější úrovni dá popsat jako vztah informace a komplexity. Informací, způsoby jejího uchování, zpracování a přenosu se zabývá informační věda. Komplexitou, tedy zkoumáním komplexních či komplexních adaptivních systémů se zabývá věda o komplexitě, což je mezioborová platforma, na níž se, ostatně podobně jako v informační vědě, odhlíží od konkrétních určení zkoumaného systému, tedy například od toho, zda je lidský, živý, či umělý. To, co nás zajímá, je právě pouze způsob, jakým se zde přenáší, uchovává, vytváří informace. Budeme-‐li zde operovat s pojmem informace a informační věda, předesíláme, že jde o pojetí, které vychází z Shannonovy matematické teorie komunikace, tak jak ji definoval ve čtyřicátých letech 20. století. Informace je zde popisována v kontextu přenosu dat a ve vztahu k veličině, která je dodnes, více než století od svého objevení a popsání, tak trochu záhadná – entropie.
1. ENTROPIE A INFORMACE Jedním z překvapivých momentů Shannonovy teorie informace bylo ztotožnění informace a entropie, a to proto, že informace byla tradičně chápána jako protiklad entropie – informace jako uspořádanost oproti rozkladu, rozpadu, spění k chaosu, neuspořádanosti. (Odtud i pojetí informace jako negentropie neboli negativní entropie.1) Shannonova entropie dlouho čelila kritice ohledně toho, zda vůbec jde o entropii, postupem času se ale ukázalo, že jde o obecnější formu entropie, než je termodynamická. Na definici pojmu entropie můžeme vidět nejen evoluci pojmu představující v určitém smyslu vývoj typický pro vědu dvacátého století, ale také vývoj pojmu klíčového pro vymezení pojetí informace. (Entropie jako modelová veličina v rámci systémů složených z mnoha prvků s globálními, emergentními vlastnostmi.) Začněme tím, že budeme entropii popisovat jako neurčitost spíše než neuspořádanost. Jak píše Leonid M. Martyushev2 v článku pro časopis Entropy: Jádro nedorozumění ohledně pojmu entropie leží v rozdílných pojetích pojmu řád. Pro laiky je řád představován 1 Negentropie neboli negativní entropie je entropie, kterou vydává živý systém, aby ji udržel na 2 Entropy and Entropy Production: Old Misconceptions and New Breakthroughs, Entropy April 2013
4
systematičností a uspořádaností, zatímco pro odborníky je založen na komplexitě předpovědi (chování systému). Tato komplexita souvisí s počtem mikrostavů – čím větší je jejich počet, tím vyšší je komplexita a tím obtížnější je předpověď. Navíc laik se pohybuje v trojdimenzionálním prostoru, zatímco odborník v 6D fázovém prostoru, v němž se berou v úvahu vztahy mezi úrovněmi. Ale to už jsme předběhli – začněme stručnou historií vývoje pojmu entropie.
1.1 CLAUSIUS Pojem entropie zavedl Rudolf Clausius v šedesátých letech 19. století, ale za iniciátora nutnosti definice tohoto pojmu je obecně považován Sadi Carnot. Carnota přivedly úvahy, jak sestrojit nejefektivnější tepelný stroj, k formulaci matematické teorie tepla, která se stala základem termodynamiky zabývající se přeměnami tepla v práci nebo naopak a vzájemnými vztahy mezi teplem a jinými druhy energie. Clausius vytvořil ve svém díle z roku 1865 The mechanical theory of heat stabilnější základ pro termodynamiku, když ukázal, že mezi Carnotovým principem a pojetím zachování energie je rozpor a vyřešil ho vytvořením dvou termodynamických zákonů. Tyto dvě termodynamické věty či zákony znějí:
1. Energie vesmíru je konstantní. 2. Entropie ve vesmírů vzrůstá, dokud nedosáhne maxima.
Jinými slovy, energie nemůže být vytvořena, ani zničena, i když může být transformována. Zároveň množství energie, která nemůže být přeměněna zpět v práci, vzrůstá, dokud nedosáhne svého maxima. Matematický koncept entropie Clausius popsal v roce 1865 a pojmenoval ji podle řeckého entrepo, což znamená obracet, měnit (kořen tropos znamená směr, způsob, charakter). (Entropie mělo být slovo co nejpodobnější energii, s níž bylo nedílně spojeno. Zkratka S prý byla poctou Sadi Carnotovi. )
1.2 BOLTZMANN Shodnout se na definici pojmu entropie není snadné, protože od dob Clausia se byla mnohokrát přeformulována. Jednoduchým řešením je chápat entropii jako to, co je vyjádřeno rovnicí (protože entropie musí být vždy vyjádřena matematicky). První vzorec pro výpočet entropie S=Q/T vytvořený Clausiem definoval entropii jako poměr tepla (dnes bychom řekli vnitřní tepelné energie) a teploty (jde o jedinou teplotu – tu, kterou má systém v termodynamické rovnováze). Další vzorce tento poměr upřesňovaly: Druhý vzorec určoval, že změna entropie rovná se změně tepla lomené teplotou – entropie stoupá, či klesá
5
s vnitřní tepelnou energií. Další, že změna entropie se rovná změna (dodané) energie mínus změna množství mechanické práce vykonané systémem (energie přeměněná v práci) lomeno teplotou. Opravdu radikální proměnu úhlu pohledu přináší vzorec, který je již výsledkem aplikace statistické mechaniky, slavný Boltzmannův vzorec, v němž je entropie násobkem libovolně zvolené (Boltzmannovy) konstanty a logaritmu N, což je celkový počet mikrostavů dostupných systému – což není celkový počet částic, ale mikrostavů, v nichž se tyto částice mohou nacházet a mít za výsledek stejný makrostav (zde teplotu).
1.3 MAXWELLŮV DÉMON Maxwellův démon je myšlenkový experiment, kterým J. C. Maxwell, autor knihy Theory of Heat z roku 1871, zamotal hlavu mnoha vědcům na několik desítek let. Připomeňme si, že podle druhého zákona termodynamiky entropie v uzavřených systémech vzrůstá (a aby se snižovala, je potřeba dodané energie – práce)3. Maxwellův démon funguje na velmi jednoduchém principu. Kdybychom měli prostor, řekněme krabici rozdělenou na dvě poloviny, v nichž v jedné by byly pomalé částice a druhé rychlé (vytvářející teplo) a mezi polovinami by byl otvor, postupem času by se částice promísily ve stejnorodou směs. Maxwellův démon je malý mužíček, který stojí u propusti a rozděluje rychlé a pomalé částice, aby tak zůstaly odděleny, přičemž se zdá, že nemusí vykonat žádnou práci (dvířka propusti se otevírají důmyslným způsobem nevyžadujícím úsilí) a přitom způsobuje, že entropie nevzrůstá. Tento na první pohled triviání problém řešily generace fyziků. Protože Maxwell chtěl tímto experimentem dokázat, že druhý zákon není vlastně zákon, ale jen statistický efekt platný pro populaci, ne na úrovni jednotlivých molekul, nejvíce se jeho představě řešení přiblížil Ludwig Boltzmann, který svým řešením založil statistickou mechaniku, jejíž princip je zkráceně v tom, že makrostavy jsou výsledkem mikrostavů (mikrostav je pozice a rychlost molekul vzduchu, makrostav je stav, kdy můžeme v místnosti dýchat). Makrostav je stav velkého množství částic, který lze určit pouze statisticky, tedy lze určit s jakou pravděpodobností může nastat. Statistická mechanika se tak stává spojnicí mezi newtonovskou fyzikou (vlastnosti jednotlivých molekul) a klasickou termodynamikou (makrostavy). Určuje průměrné, tedy pouze pravděpodobnostní pozice populací molekul. Druhý zákon tak podle Boltzmanna zní: Uzavřený systém se bude nacházet v pravděpodobnějším stavu (entropie bude růst do makrostavu s nejvyšší možnou entropií, tj. pravděpodobností). Ona jediná teplota uzavřeného rovnovážného systému je tak vlastně nejpravděpodobnějším stavem molekul systému. Kinetická teorie plynů postuluje, že existuje střední volná dráha neboli průměrná hodnota dráhy, kterou 3 Z toho plynula i představa tepelné smrti vesmíru, kdy se na konci času všechny diference vyrovnají a nastane maximálně neurčitý, homogenní a neorganizovaný stav.
6
urazí molekula plynu (než na něco narazí), což znamená, že jakkoli se mikroskopicky plyn neustále mění (molekuly se pohybují různými rychlostmi a směry), makroskopicky zůstává stejný (při srážce dvou molekul se mění dráha i rychlost, ale součet zůstává stejný4). Jinými slovy makroskopické veličiny závisí na středních hodnotách.5
1.4 SZILARD Řešení problému Maxwellova démona mělo mnoho dalších zajímavých a vlivných implikací. V roce 1929 přišel Léo Szilard s řešením, v němž úplně poprvé spojil informaci a entropii: inteligence démona je akt získání informace měřením, k němuž je potřeba energie (měření má za následek větší uspořádanost, a snižuje tedy entropii, ale je k němu zapotřebí energie, a tak entropii také zvyšuje). Szilardovo řešení problému Maxwellova démona definuje jako neživý přístroj (device) s pamětí. Možnosti perpetua mobile zabraňuje to, že informace není zadarmo. Informace se stává součástí fyzikálního světa (démon vytvořil tuto spojnici; konverzi mezi informací a energií). Každá jednotka informace přináší odpovídající zvýšení entropie. Zároveň Szilard poprvé definoval bit informace, a to jako míru informace obsaženou v základním rozlišení ano/ne, zde pomalé/rychlé.6
1.5 SHANNON U Clausia byla entropie čistě termodynamickou veličinou, která neměla mimo fyziku smysl, od doby Boltzmanna a Gibbse, kdy byla popsána matematicky, je aplikovatelná na jakýkoliv statisticky popsatelný systém – poprvé tedy vznikla možnost mluvit o entropii mimo termodynamiku nebo dokonce fyziku – možnost, které využil Claude Shannon. Shannon ve své Matematické teorii komunikace (1948) spojil pojem entropie a informace. Vznikla tzv. Shannon-‐Weaverova, zkráceně Shannonova neboli informační entropie. Boltzmannova entropie byla totiž podle Shannona jediná funkce, která uspokojovala nároky na funkci, která by měřila nejistotu obsaženou ve zprávě (kde „zpráva“ je vlákno binárních bitů). Stejně jako u termodynamiky, která byla reakcí na tehdejší moderní technologie, souvisely problémy, které řešil C. E. Shannon, s novými technologiemi své doby, telegrafem a telefonem. Shannon pracoval v Bell Labs a řešil přenos signálu po síti, neboli problém šumu a ztráty dat. Jeho řešení se ale nakonec stalo nejen 4 Neboli rozložení rychlostí velkého množství molekul je stálé: Maxwellův rozdělovací zákon 5 To platí pro systémy s vlkým množstvím částic – u malého množství dochází k fluktuacím (viz Brownův pohyb). 6 Dalším, symetrickým řešením paradoxu Maxwellova démona je Landauerův princip. Rolf Landauer v něm postuloval, že snížení entropie je kompenzováno ztrátou energie (a tedy zvýšením entropie) nutné ne k získání, ale k vymazání (jednoho bitu) informace.
7
technickým nástrojem, nýbrž i základem informační teorie (Information theory). Obdobně jako řešil Clausius ztrátu tepla, hledal Shannon vyjádření míry ztráty informace při přenosu dat. Shannonova entropie je ale mnohem obecnější, je použitelná všude, kde jsou neznámé kvantity, které mohou být popsány jedině pravděpodobnostním rozdělením.7 Shannon předpokládal, že máme set událostí, jejichž pravděpodobnost výskytu je p1, p2... pn. Pravděpodobnosti jsou známy, ale to je vše, co o tom, která událost nastane, víme. Můžeme najít míru toho, kolik “výběru” je zahrnuto v selekci události či jak nejistí jsme ohledně výsledku? (Přičemž nejistota plyne z množství možností, ze kterých vybíráme.) A jak tuto míru či veličiny pojmenovat? Shannon ji chtěl nazval informace nebo neurčitost, ale John von Neumann měl lepší nápad: “Měl bys ji nazvat entropie, a to ze dvou důvodů. Za prvé už je tato funkce neurčitosti stejně pojmenována ve statistické mechanice. A za druhé, nikdo neví, co entropie skutečně je, takže v debatě budeš mít vždycky výhodu.”8 Podle další z verzí dokonce von Neumann neřekl jen, že tento pojem se používá v termodynamice a má podobný význam, ale dokonce, že Shannonova míra, později nazvaná entropie, je speciálním případem jeho vlastní, von Neumannovy entropie (součást kvantové teorie, v té době používaná ve statistické fyzice).9 Shannonova definice informace, tak jak se objevila v díle Matematická teorie komunikace z roku 1948, zní: Information of a macrostate (a source) as a function of the number of possible microstates (ensemble of possible messages) that could be sent by that source. (Informace makrostavu (zdroje) je funkcí počtu možných mikrostavů (celku možných zpráv), které mohou být odeslány tímto zdrojem.) Během pár let se Shannonova práce stala ve vědeckých kruzích proslulou, a když v roce 1948 vyšla i s komentářem Warrena Weavera, podle mnohých zapůsobila jako časovaná bomba. Informace je zde informací zbavenou významu, psychologického faktoru, sémantického obsahu. Je: nejistotou (měřitelná počtem možných zpráv), překvapením (neboli malou pravděpodobností výskytu), obtížností (přenosu zprávy) a entropií. V této definici, která odhlíží od sémantické složky a soustředí se na protiklad informace a šumu, je informace 7 Například podle E. Jaynese je termodynamická entropie jen zvláštním případem informační entropie: vždy jde o pravděpodobnost, že nastane specifický mikrostav systému, který se projeví jako daný makrostav. 8 Například zde: http://www.markwilde.com/teaching/notes/ch-‐11-‐q-‐info-‐entropy.pdf 9 Von Neumann: Matematické základy kvantové mechaniky (1932): fenomenologická termodynamika znamená zkoumání na makro, ne mikro úrovni
8
chápána ne jako zpráva, ale signál – posílá se vždy signál, který může nést zprávu. Shannonův model komunikace obsahuje: zdroj (osobu či stroj), transmiter kódující zprávu, kanál (médium přenosu signálu), přijímač dekódující zprávu, příjemce (člověka či věc) a zdroj šumu. Signál definoval jako proud diskrétních symbolů spíše než kontinuální vlnu, jako obranu proti šumu zavedl symboly navíc (stejně funguje redundance využívaná v přirozených jazycích) a učinil metodu použitelnou i pro počítače. Pojem komunikace se tak rozšiřuje třeba i na oblast umění, obecně vlastně lidské chování, ba dokonce i ne-‐lidské chování – i stroj může být odesílatelem zprávy. Navíc zapojil fyziku stochastických procesů, které nejsou ani deterministické, ani náhodné, ale řídí se souborem pravděpodobností. Pokud postulujeme, že každá událost má jistou pravděpodobnost závisející na stavu systému a historii a za událost dosadíme symbol, pak nám vyjde jazyk jako stochastický proces. Výběr způsobující nejistotu ohledně toho, co nastane, je informačním obsahem. Tzv. Shannonova entropie vycházející z pravděpodobnosti zprávy má za jednotku bit (tedy rozlišení ano/ne, 1/0) a zpráva zde není tvořena, ale vybírána – zpráva je výběr.
1.6 RÉNYI Maďarský matematik Alfréd Rényi (1921-‐1970) byl schopen vytvořit entropii vlastní fraktálním geometriím. Rényiho informační entropie umožnila studium statistických vlastností multifraktálních systémů skrz rozšíření pojetí Shannonovy (Gibbs-‐Shannonovy) entropie. Studiem statistických vlastností multifraktálních systémů skrz rozšíření pojetí Shannonovy entropie na obecnější rámec – Rényiho informační entropii – se ve své práci zabývají český fyzik Petr Jizba a jeho japonský kolega Toshihico Arimitsu.10 Předpokládají, že princip maximální entropie11 poskytuje přechod od Rényiho informační entropie (RIE) k termodynamice multifraktálů. Otázka, která je zde pokládána, zní: jaké modifikace ve statistické fyzice můžeme očekávat, když se jedná o systémy s různou fraktální dimenzí – multifraktály. (Fraktální dimenze určuje míru nepravidelnosti útvaru, klasické fraktály mají jednu hodnotu fraktální dimenze, multifraktály jich mají nekonečně mnoho.) Pohled, který se zde nabízí, spočívá na dvou vzájemně provázaných konceptech, Rényiho informační entropii a multifraktální geometrii. Rényiho informační entropie je nejobecnější funkční formou přenášené informace. (Shannonova může být chápána jako její speciální případ (v případě alfa=1). Důvodem, proč není
10 Další info např. zde: http://www.fjfi.cvut.cz/files/k402/pers_hpgs/jizba/ 11 Princip maximální entropie (maxEnt) určuje, že pokud o daném rozdělení máme jen částečnou informaci, tj. známe jen některé jeho charakteristiky, potom nejpravděpodobnější tvar daného rozdělení je ten, který má nejvyšší možnou entropii.
9
Rényiho entropie aplikována tak široce jako Shannonova, je podle autorů zřejmě dvojznačná renormalizace pro nediskrétní distribuce a malý vhled do významu parametru alfa. (Předmětem jejich výzkumu jsou také otázky jako RIE vs Tsallisova-‐Havrdova-‐Charvátova (THC) entropie.12) Propojení fyziky a informační vědy potvrzují sami autoři: “v posledních dvou desetiletích došlo k explozivnímu nárůstu aktivity v rovnovážné i nerovnovážné statistické fyzice díky ideám převzatým z informační vědy, teorie chaotických dynamických systémů, kritických fenoménů a kvantové teorie pole (klíčovými pojmy jsou: zobecněné míry informace, kvaziperiodické a podivné atraktory, perkolace, renormalizace).”13
1.7 INFORMACE A TVAR V Shannonově Matematické teorii komunikace (1948) byla poprvé spojena fyzická informace a matematická teorie. Jak píše James Gleick ve své knize The Information14, což je vlastně obsáhlá historie tohoto klíčového pojmu, Shannon svou prací, i když to nebylo ihned zřejmé, ustanovil informaci jako „krev a pohon“ („blood&fuel“) našeho světa. Až v okamžiku, kdy byla informace definována v rámci informační vědy, tedy právě v Shannonově Matematické teorii komunikace, mohla se stát pojmem propojujícím různé obory. Informace je definována různě v různých ohledech a kontextech ve fyzice, matematice, biologii, sociologii, filosofii, sémantice, psychologii či kybernetice, ale právě díky tomu, že existuje základní společná definice, je možné hledat a nacházet paralely mezi jinak vzdálenými oblastmi. Co se týče předchozího života pojmu informace, shrňme v krátkosti, že vychází etymologicky z latinského slova informatio, od slovesa informare užívaného ve smyslu zformovat, většinou užívaného ve smyslu zformovat myšlenku či mysl. Pojem souvisí se starořeckým morfé (μορφή) a eidos (εἶδος), které byly do latiny přeloženy jako forma a idea/tvar. Forma je pojem odkazující k Platónově eidos, ideji a Aristotelově morfé, formě. Týká se tedy archetypů, vzorů věcí, respektive poznatelné podstaty věci. Běžnější užití slova forma, tak jak se vyskytuje třeba v biologii, znamená tvar věcí či bytostí. 12 Rozdíl mezi Rényiho a THC (Tsallis-‐Havrda-‐Charvát) entropií je především v tom, že THC entropie není aditivní (pravděpodobnost dvou událostí s jedním výstupem se nesčítá). Jde o problém diskrétních a kontinuálních pravděpodobnostních distribucí. Tsallis-‐Havrda-‐Charvátova entropie je pjetí entropie, jak ji rozvíjeli v 60. letech v Československu Havrda a Charvát a jak ji chápe Constantino Tsallis. Havrdova a Charvátova práce byla bohužel přerušena jejich emigrací po roce 1968. 13 Jizba, Petr; Arimitsu, Toshihico: The world according to R�enyi: thermodynamics of multifractal systems, Annals of Physics 312 (2004) 14 Gleick, James: The Information. A History. A Theory. A Flood, Pantheon Books, New York, 2011
10
Bez dalšího zbytečného zabíhání do etymologických odboček shrňme, že informaci vnímáme jako pravidelnost, pravidlo, vzorec, vzor, tvar, formu. Informace a forma je téma, kterým se zabýval mimo jinými například také Vilém Flusser, který v knize The Shape of things15 definuje informaci jako in-‐formaci: formování beztvaré hmoty v inteligibilní formy.16 Alan Turing pracoval léta na matematické teorii tvaru (morfogeneze): upřesnil, že vztahy mezi částmi nemusejí být prostorové, ale i časové, logické, či kauzální a stále jde o formy; viz např. časový vztah vzoru elektrických impulsů zasílaných telegrafem. Povstávání prostorových obrazců popsal jako efekt nelineárních dějů – práh vzniku takových obrazců se označuje jako Turingova nestabilita. Turingovou průkopnickou a ve své době nedoceněnou prací se zabýval i Ilya Prigogine, který později vytvořil pojem disipativní struktury, což jsou právě systémy udržující se daleko od rovnováhy, kde se tradičně předpokládala náchylnost k neuspořádanosti, ale Prigogine zde objevil tendence k organizaci, respektive sebe-‐organizaci a vzniku komplexity. I Fritjof Capra, fyzik a badatel v oblasti systémových teorií, se v knize Web of Life (česky Tkáň života)17 věnuje zkoumání komplexity díky syntéze studií látky a formy neboli uspořádání. „Porozumění životu ze systémového hlediska začíná pochopením uspořádání.” (Capra, 83) Jak uvádí Hans Christian von Baeyer ve své knize Information. The New Language of Science18, spisovatel Paul Young našel osm synonym pro slovo informace: uspořádání, konfigurace, řád, organizace, vzor, tvar, struktura a vztah. Možná překvapivě je pro něj slovem, které podle něj informaci vyjadřuje nejlépe napříč obory, vztah. Informace není to samé jako forma, ale odkazuje ke kladení, rozpoznávání, sdílení formy; souvisí se změnou, obsahuje konotaci aktivity. Informace je přenos formy z jednoho média do jiného (komunikace vztahů). Shrňme tedy opět jen v krátkosti, že klíčovým bodem je zde vztah informace a formy, proces formování, získávání tvaru, vyvstávání vzoru (pattern) a zároveň proces přenosu, komunikace.
15 Flusser, Vilém: The Shape of things. A Philosophy of Design, Reaktion Books, London 2012 16 Na základě protikladu materiální a formální: přičemž forma tu není chápána jako něco objevovaného (řecké pojetí aletheia), ani fikce, ale model. 17 Capra, Fritjof: Tkáň života. Nová syntéza mysli a hmoty, Academia, Praha 2004 18 Baeyer, Hans Christian von: Information. The New Language of Science (2003), Orion Books Ltd, London 2004
11
2. KOMPLEXITA James Crutchfield, americký matematik a fyzik, ředitel centra pro vědy o komplexitě (Complexity Sciences Center) 19 popisuje svou cestu ke studiu komplexity jako spojení dvou symetrických problémů: 20 prvním byla problematika, která je tématem teorií deterministického chaosu: tj. to, že jednoduché systémy vykazují komplexní, “chaotické” chování. Znamenalo to, že velká míra náhodnosti, kterou pozorujeme v přirozeném světě, může mít v pozadí jednoduché nelineární dynamické systémy. Druhá strana mince je problematičtější: pokud jednoduché systémy spontánně generují zdánlivě náhodné chování, proč systémy na vyšší úrovni složené z mnoha prvků vykazují uspořádanost? Neboli co je základem organizace v chaotickém světě? Tato otázka ho podle jeho vlastních slov přivedla k zkoumání mechanismů tvoření tvarů (pattern formation) v prostorově rozvitých dynamických systémech. Stephen Hawking vyřkl na začátku 21. století proroctví, že nové století bude věkem komplexity.21 Nové „paradigma komplexity“ se od té doby objevuje v různých kontextech, nejen v oblasti vědy. Komplexita složí jako nástroj popisu kolektivní inteligence mravenčích společenství, organizace a fungování lidské společnost, či buněk organizujících oko či mozek, světové burzy i internetové sítě. Komplexní adaptivní systémy (Complex Adaptive System; CAS) jsou takové systémy, které přijímají informace z okolí, identifikují regularity a kondenzují je do schématu či modelu, který podléhá zpětné vazbě, když je aplikován na reálný svět a znovu upraven. Jsou to systémy složené z velkého množství prvků, bez centrální kontroly, v nichž z jednoduchých pravidel vzniká komplexní kolektivní chování, sofistikované zpracování informací a adaptace skrze učení a evoluci. To zároveň znamená, že jsou to systémy vyvíjející se v čase.22 Tradičně se rozlišuje několik pramenů vedoucích ke vzniku teorie komplexity, o kterých se alespoň stručně zmíníme. Za výchozí bod je obecně považován postulát, že „celek je víc než suma částí“ pocházející původně z ekologie, dále studium dynamiky chaotických systémů (jehož počátek se klade do oblasti meteorologie a je spojen s průkopnickou prací Edwarda Lorenze z počátku šedesátých let 20. století, kdy jako první popsal „motýlí efekt“, tj. extrémní citlivost na počáteční podmínky), nové poznatky v teorii evoluce, 19 http://csc.ucdavis.edu/Welcome.html 20 Například zde: http://csc.ucdavis.edu/~chaos/papers/QsOnComplexity.pdf 21 Například zde: http://blogs.scientificamerican.com/the-‐curious-‐wavefunction/2013/04/23/stephen-‐hawkings-‐advice-‐for-‐twenty-‐first-‐century-‐grads-‐embrace-‐complexity/ 22 Ve fyzice existují základní dva typy času: čas klasické mechaniky a teorie relativity a čas termodynamiky: čas, který má směr. Děje klasické mechaniky nezahrnují šipku času, jsou symetrické v tom smyslu, že jejich začátek a konec se dají prohodit, jejich procesy jsou reverzibilní. Jediná veličina, která ve fyzice vyžaduje „šipku času“, je entropie.
12
systémové teorie (obecná teorie systémů Ludwiga von Bertalanffy z roku 1968, tektonika (věda o strukturách a organizaci, 1912-‐17) Alexandra Bogdanova, kybernetika Norberta Wienera) anebo teorie sítí, z nichž vycházejí další zásadní charakteristiky komplexních systémů a dějů. K tomu, aby se komplexita stala novým paradigmatem, bylo ovšem potřeba právě také teorie informace (tak jak ji formuloval Claude Shannon) a vývoje výpočetní techniky a počítačových simulací, které pro popis komplexních systémů poskytují metody. (Meze redukcionismu se začaly ukazovat už v myšlenkovém díle Jamese C. Maxwella, či Henri Poincarého: viz problém tří těles, či obchodního cestujícího, v nichž se ukazuje exponenciální růst složitosti.) Za všechny ostatní myslitele zabývající se komplexitou zmiňme ještě například Friedricha Hayeka, nositele Nobelovy ceny za ekonomii, který, inspirován prací Karla Poppera a Warrena Weavera, věnoval většinu svého úsilí studiu komplexních fenoménů, přičemž se neomezoval jen na ekonomii, ale zahrnul do svého zkoumání i poznatky z psychologie, biologie a kybernetiky. Gregory Bateson nastínil vztah mezi antropologií a systémovou teorií, když popsal kulturu jako ekosystém. Podle Stevena Strogatze (jeden z průkopníků teorie sítí) byl pro každou z dekád dvacátého století klíčový pojem začínající na „c“: kybernetika (cybernetics) v šedesátých letech, teorie katastrof (catastrophe theory) v letech sedmdesátých. V osmdesátých letech to byla teorie chaosu (chaos theory) a v devadesátých komplexita (complexity). Na začátku 21. století se dalším pojmem zdá být konsilience (consilience), výsledek snahy o propojení přírodních a společenských věd v rámci studia komplexity. Definice komplexity je poměrně problematická. Jak definovat složitost? Kde se nachází hranice, za níž je nějaký systém komplexní? Etymologicky lze její původ vysledovat k latinskému complexus (objetí, shrnutí) od slovesa complecti (obklopovat, obejmout, zahrnovat) v přeneseném smyslu zvládnout, rozumět, z com-‐ (s) a plectere (tkát, plést, splétat, proplétat) a plicare (překládat, skládat, kroutit). Základem je řecký kořen plek-‐ (splétat). Latinské plectere zároveň souvisí se staroslovanským plesti (plést). Komplexita tedy evidentně souvisí se spletitostí. To můžeme formulovat také tak, že u komplexního systému nejde o počet prvků, ale složitost jejich propojení, hustotu sítě. Definovat míru komplexity je ale skutečně problém. Zde jen stručný přehled několika základních řešení: Míra komplexity se může měřit pomocí: velikosti systému (toto měřítko evidentně nevyhovuje, velikost systému a jeho složitost nejsou přímo úměrné), entropie (musí ale jít v nějakém smyslu o zprávu a problémem zůstává, že nejvyšší hodnotu má náhodný systém). Můžeme také měřit algoritmický informační obsah. Musíme si ale dávat pozor, protože algoritmická složitost souvisí s „teorií složitosti“, což není „naše“ teorie komplexity, ale matematický obor, v němž se podle úrovně složitosti klasifikují
13
výpočetní systémy. Nicméně toto měřítko funguje obdobně, jen se navíc rozlišuje algoritmická komplexita (délka nejkratšího programu popisujícího objekt) a efektivní komplexita. (Efektivní komplexitu popsal již jeden z průkopníku vize komplexity Murray Gell-‐Mann, mimojiné nositel Nobelovy ceny za objev kvarku: „Chceme-‐li se vyhnout technickému jazyku, můžeme definovat efektivní komplexitu nějaké entity jako délku vysoce komprimovaného popisu jejich pravidelností. Pro techničtější definici potřebujeme formální přístup jak k pojmu minima deskriptivní délky, tak rozdílu mezi pravidelnostmi (regularitami) a těmi rysy, s nimiž je zacházeno jako s náhodnými či nahodilými.“23) Jde, stručně řečeno, o pokus, jak oddělit komplexitu a náhodnost. Tento typ komplexity je také nazýván Kolmogorova-‐Chaitinova komplexita. Dalším měřítkem může být logická hloubka (Charles H. Bennett), která určuje, jak těžké je objekt sestrojit, anebo třeba termodynamická hloubka (Seth Lloyd; sekvence událostí vedoucí k objektu, zdroje vyžadované ke konstrukci), výpočetní kapacita (Stephen Wolfram), statistická komplexita (James P. Crutchfield; minimum informace nutné k předpovědi budoucnosti systému), fraktální dimenze či stupeň hierarchie (Herbert A. Simon; soběpodobné vzory na všech úrovních).
23 In nontechnical language, we can define the effective complexity (EC) of an entity as the length of a highly compressed description of its regularities. For a more technical definition, we need a formal approach both to the notion of minimum description length and to the distinction between regularities and those features that are treated as random or incidental. (Murray Gell-‐Mann: The Quark and the Jaguar)
14
ČÁST II
4. Ústav komplexních systémů Studium komplexních systémů z hlediska informační vědy je typ výzkumu, který je prováděn v Ústavu komplexních systémů24, součásti Jihočeské univerzity, sídlící v Nových Hradech. Pojem Point information gain (PIG) je originálním přínosem této problematice.25 Informační přínos je zde analyzován jako informace přidaná bodem k celkové informaci obrazu. Tato metoda byla původně využívána při analýze mikroskopických obrazů živých buněk, ale může být principiálně využita při zkoumání jakéhokoliv experimentálního strukturovaného souboru dat – čehož jsme využili v této práci a aplikovali jej při analýze uměleckých děl. Záměrem analýzy je získat maximální množství informace v minimálním čase (v biologii jde o buněčné tkáně zkoumané pod mikroskopem, jejichž životnost je přirozeně limitovaná). Proces přenosu informace (o buňce skrz mikroskop) je analyzován v pojmech klasického Shannonova schématu přenosu informace, zdrojem informace je biologický objekt, kanálem je mikroskop, příjemce model biologického systému. Získáváme tedy informační reflexi (biologického) objektu. Jakékoliv čisté (clear-‐cut) analýzy může být dosaženo jedině v případě existence izolovaných bodů. Vztah k reálnému případu (např. vnitřku živých buněk), kde nacházíme směs transparentních oblastí se signifikantně rozdílnou refraktivitou, je analytickým přístupem nerozlišitelná. Diskutujeme o možnosti nekalibrujícího (calibration-‐free) přístupu, globálního pozorování detekovatelných (zde intracelulárních) součástí a jejich dynamiky. Problémem v tak složitém prostředí je způsob, jakým definovat nejlepší rozlišení v destinaci. Jinými slovy, nemáme čistou definici modelu zdroje informace – destinace. K rozvoji metody nahradíme objektivní rozlišení informace názorem operátorů (operators opinion). On nebo ona musí rozhodnout, co je pozorovatelným objektem, jak dlouho trvá, jestli se rozpíná, nebo smršťuje. Ve shodě se Shannonovým schématem pokládáme pozorovatele za zdroj informace (který rozděluje běžné a vzácné body).
24 Oficiální stránky zde: http://www.frov.jcu.cz/cs/sks-‐frov-‐ju/skola-‐komkplexnich-‐systemu 25 Viz například článek: Point Information Gain, Point Information Gain Entroy and Point Divergence Gain: measures of information in a structured dataset, Dalibor Štys, Petr Jizba, jan Urban, Tomáš Náhlík, Dalibor K. Štys
15
5. Definice základních pojmů teorie dynamických systému a pojmů PIG (Point Information Gain), PDG (Point Divergetion Gain), PIE (Point Information Entropy) a PIED (Point Information Entropy Density) Dynamický systém: Dynamický systém se vyvíjí v čase. Tento vývoj může být graficky znázorněn ve fázovém prostoru. Body ve fázovém prostoru reprezentují stavy systému. Změna stavu, tedy vývoj systému je představována pohybem bodu. Křivka, po které se bod pohybuje, se nazývá trajektorie. Pokud trajektorie vytváří určitou strukturu, jde o atraktor. (Mnoho dynamických stavových prostorů je chemických – fyzický extent je jen konsekvence. PIG odráží optický signál – tedy chemické vlastnosti originální struktury, vizuální inteligibilitu struktur.) Atraktor: Atraktor v teorii dynamických systémů je nástrojem pro popis chování chaotického systému v prostoru a čase. Atraktor je podivný, pokud má pozitivní Ljapunovův exponent (tedy je citlivý na počáteční podmínky) a fraktální dimenzi (která určuje míru jeho složitosti). Z pohledu rovnovážné termodynamiky je pokus charakterizovat složitý objekt jedním konstituentem beznadějný. U nerovnovážně dynamických systémů je stavový prostor rozdělen do oblastí přitažlivosti individuálních dynamických rysů, atraktorů. Ty jsou různých druhů, limitní cykly, chaotické, podivné atd. Chování systému je analyzovatelné jako symbolická trajektorie. Podivný atraktor: Podivný atraktor je atraktor s fraktální dimenzí. Není limitní, ani cyklický, je to složitý útvar. První podivný atraktor, který objevil meteorolog E. Lorenz, je znám jako Lorenzův atraktor. Deterministický chaos: Deterministický chaos byl předmětem studia od šedesátých let 20. století. Nejde o chaos ve smyslu absolutní neuspořádanosti či nepoznatelnosti. Chaotické systémy nejsou absolutně chaotické, ani deterministické, tedy plně předvídatelné. Jsou extrémně citlivé na počáteční podmínky (tzv. Efekt motýlích křídel), což znemožňuje dlouhodobé předpovědi, nicméně jejich komplexní chování se řídí poměrně jednoduchými pravidly. Ljapunovův exponent/Ljapunovova stabilita (samoorganizujících se systémů): určuje míru závislosti na počátečních podmínkách, tedy míru, v níž je systém chaotický. Rovnovážný stav je Ljapnunovsky stabilní, pokud se po vychýlení příliš nevzdálí od rovnovážného stavu (nemusí ale být přímo v rovnovážném stavu).
16
Fraktální dimenze: Fraktální dimenze určuje míru nepravidelnosti útvaru. Útvar je fraktálem, pokud je jeho Hausdorffova dimenze (ostře) větší než jeho topologická dimenze. Termín fraktál poprvé použil Benoit Mandelbrot v roce 1975, aby popsal výsledky své dlouholeté práce. Kořenem slova fraktál je latinské fractus, rozbitý. Mandelbrot navazoval na v té době již známé útvary jako je Kochova křivka či Juliovy množiny. Teorie multifraktálů: kvantitativně popisuje širokou škálu komplexních struktur zahrnujících mnoho nelineárních dynamických systémů (spolu s jejich atraktory). Na rozdíl od obyčejných fraktálů, jejichž struktura je specifikována jediným škálovacím exponentem – fraktální dimenzí – nemají multifraktály jeden, ale nekonečně mnoho škálovacích exponentů, které je popisují. Rényiho informace a multifraktalita objektů: máme dva kvalitativně odlišné typy škálování: první je vztažený k distibucím kvantit jako je hustota náboje, koncentrace hmoty, intenzita barvy, druhý koresponduje s fraktální dimenzí oblasti, která má stejnou hodnotu – umožňuje tak kvalitativní popis komplexních jevů. Výpočet multifraktálního spektra chaotického atraktoru se provádí tak, že rozdělíme prostor do čtverců a v každém změříme pravděpodobnost výskytu trajektorie v každé daném bodě. Samoorganizace: je proces, ve kterém globální uspořádanost povstává (emerguje) z lokálních interakcí prvků původně neuspořádaného systému. Jde o spontánní proces, který nastává při dosažení jisté úrovně komplexity, bývá spouštěn náhodnými fluktuacemi a posilován pozitivní zpětnou vazbou. Vyskytuje se u fyzikálních, chemických, sociálních i kognitivních systémů (klasickými příklady jsou krystalizace či konvekce, organizace rojů, či neuronové sítě.) Koncept samoorganizace se objevil v souvislosti s kybernetikou a systémovými teoriemi v padesátých a šedesátých letech 20. století. V té době působila kybernetika a systémové myšlení na všechny oblasti vědy a výzkumu i techniku a managenement. Metody se ovšem ukazovaly jako nedostatečné – stručně řečeno stále byly k dispozici jen lineární rovnice k popisu nelineární dynamiky živých systémů. Kybernetici se začali zaměřovat na nelineární jevy.26 Disipativní struktury: Ilya Prigogine, přední odborník v oblasti samoorganizace definoval disipativní systémy, které mají schopnost udržovat své životní procesy
26 Zajímavě tento vývoj mapuje například N. Katherine Hayles v knize How We Became Posthuman. Virtual Bodies in Cybernetics, Literature and Informatics, tHe University of Chicago Press, 1999 (Vychází z vývoje zachyceném v průběhu Macy konferencí (1946-‐53): Jen stručně: McCulloch-‐Pitts, Ashby, Foerster: K nalezení prahu “vzestupu uspořádanosti” využili Shannonovy “redundance” jako míry relativní uspořádanosti daného systému vůči pozadí s maximální neuspořádaností, což umožnilo vytvořit raný model samoorganizace (tzv. “pořádek ze šumu”).)
17
za podmínek nerovnováhy. Ukázal tak souvislost vzdálenosti od rovnováhy, nelinearitou a vznikem komplexity.27 Příklady: Tzv. Bělousovo-‐Žabotínského reakce je emblematickým příkladem samoorganizujícího se systému a vytváření vzorů (patterns). Samoorganizace simulovaná: Důležité a vlivné potvrzení přirozené komplexity vycházející z jednoduchých pravidel představují celulární automaty, v nichž je komplexního chování (a vyvíjejících se tvarů) dosaženo pomocí velmi jednoduchých pravidel a mnoha iterací. Softwarové nástroje: Analýza hlavních komponent (Principal Component Analysis, PCA) je statistická multivariantní metoda analýzy dat. Princip vychází z tzv. selekce a extrakce příznaků. Předpokládejme, že analyzujeme soubor dat, kterým lze přiřadit souřadnice v obecně vícerozměrném prostoru. Souřadnice takového prostoru jsou určeny proměnnými, které popisují soubor dat. PCA se snaží najít nový souřadný systém toho samého prostoru, ovšem tak, aby nové souřadnice jednak byly lineárními kombinacemi souřadnic starých, ale především aby nové osy byly ve směru maximální variance souboru dat. Tím většinou dochází i ke snížení dimenzionality problému, protože u souboru dat, který vytváří shluky (třídy, skupiny) v souřadném prostoru, lze většinu variance popsat několika málo principálními komponentami (principální komponenty jsou ony nové souřadné osy), často prvními dvěmi či třemi. (Původní data je potřeba před výpočtem standardizovat na jednotkovou směrodatnou odchylku.) Regresní analýza je označení statistických metod, pomocí nichž odhadujeme hodnotu jisté náhodné veličiny (závislá, cílová, vysvětlovaná proměnná,) na základě znalosti jiných veličin (nezávisle proměnných, kovariát anebo vysvětlujících proměnných). Modul PLS regrese (PLSR) poskytuje uživateli jeden z nejvýkonnějších výpočetních nástrojů pro vyhodnocování dvojice vícerozměrných proměnných, mezi nimiž se předpokládá možná lineární závislost. Tato výpočetně náročná metodika umožňuje vysvětlovat a predikovat jednu skupinu proměnných pomocí jiné skupiny proměnných. Existují dvě různé metody analýzy obrazu: z celého obrazu, from whole (WI) a nebo z kříže, cross (C): rozdíl je v tom, že počítáme četnost výskytu každé úrovně intenzity v obraze (WI) či na ramenou kříže (zkoumaný bod je ve středu kříže) (C) – vždy s a bez zkoumaného bodu. Výskyt je potom použit jako pravděpodobnost ve výpočtu Rényiho entropie. Typ entropie, který využíváme, je 27 Na Prigogina navázali, anebo formulovali příbuzné teorie: Lynn Margulis (endosymbióza), Maturana a Varela (autopoiesis), Nicolis
18
Rényiho entropie (a informace), která je vhodná pro multifraktální systémy a popis chaotických atraktorů. C dává strukturovanější výsledky – relativní přínos bodu celkové distribuci závisí na množství bodů – počet bodů na rameni kříže je o řád nižší než u WI. PIG bodu v případě výpočtu využívajícího lokální definici výskytu intenzit je vyšší (a vliv různých rozlišení není tak velký). Je zde ale fundamentálnější rozdíl mezi čistě sémantickou (WI) a částečně syntaktickou informací (C) (pro plně syntaktickou informaci bychom potřebovali znát vlastní definici lokálního kontextu, tj. funkční hierarchii prvků obrazu). Sémantická a syntaktická informace: Cross analýza nám dává syntaktickou informaci, tedy informaci včetně vztahu bodu k okolí, zatímco whole sémantickou informaci. Čistě sémantická informace určuje kontribuci informačního prvku k objemu struktury. Určuje rozložení, ale ne v závislosti na umístění v prostoru, je to jen poměr (barevných) intenzit. Syntaktická je přesnější, protože neříká jen, jaká je (hodnota), ale i kde je – cross analýza vybírá ze souboru jen vybrané části okolí strukturovaným způsobem, tj. ve vybraném směru. Zároveň nicméně vyhledává kontext naslepo. Plně syntaktický přístup by byl umožněn určením funkčně relevantního kontextu (určení hlavních směrů a vzdáleností). Point Information Gain, dále jen PIG, byl původně definován pro potřeby práce s biologickým materiálem, tedy primárně pro analýzu snímků buněčných tkání z mikroskopu, ale principiálně je použitelný pro analýzu mnoha strukturovaných souborů dat. Je analogický s přenosovou entropií či divergencí a používá se k určení informačního přínosu experimentálního bodu v multidimenzionálním experimentálním prostoru. PIG je mírou kontribuce daného bodu celkové informaci, kterou můžeme získat z objektu. Pojem je založen na předpokladu, že pozorovatelná multifraktalita přirozených (přírodních) objektů je reflexí struktury vnitřních atraktorů. PIG identifikuje skupiny datových bodů se stejnými vlastnostmi. PDG (Point Divergence Gain) se využívá se ke srovnání dvou experimentů. Dá se aplikovat na informaci ve formě obrazu či 3D objektu. PIE a PIED, neboli Point Information Entropy a Point Information Entropy Density jsou jedinečné charakteristiky objektu.28 I když definice PIG v kontextu daného multidimenzionálního setu může být přímočará, jeho vztah k dokonce zdánlivě jednoduchému konkrétnímu fyzickému fenoménu představovaného souborem dat může být komplikovaný. Jinými slovy, původ distribuce a přínosu (kontribuce) individuálního prvku odráží jak originální objekt, tak všechny experimentální kroky k jeho reprezentaci v
28 Viz Jizba, či Kullback-‐Leibler
19
souboru dat. Takto můžeme chápat PIG jako nejvíce nestrannou, objektivní reprezentaci experimentu a jeho výsledků. PIG může být kalibrováno výběrem hodnoty parametru alfa. Výběrem alfa parametru vlastně vybíráme (či anticipujeme) jistou očekávanou alfa-‐deformovanou distribuci. Obraz, jehož distribuce je jedna z “čistých”, dá hladkou křivku se stejně rozdělenými datovými body (pro alfa=1 použijeme standartní Shannonovu entropii). (Jedním z cílů našeho projektu bude je kalibrovat, tj. zmapovat nejvlastnější spektrum koeficientů alfa potřebných ke zmapování vnímání daného lidského vzorku a přiřazení k odpovídající statistické projekci hodnot získaných analýzou obrazového vzorku. Informace, kterou získáme, je statistický průměr kokrétních výběrů porovnaný s mechanickým výběrem pováděným počítačem. Informace je poměrem běžných a vzácných, singulárních bodů: to, které z nich jsou singulární, je dáno právě těmito výběry.) Experiment jako zdroj informace: Obvykle předpokládáme, že obsah obrazu věrně odráží originální objekt. Ve skutečnosti vnáší médium své optické systémy. (Interakce světla a pozorovaného objektu je často kombinace absorbce, difrakce a refrakce.) A nesmíme opomenout roli pozorovatele, který je součástí (pozorovaného) systému. (To, o co se zde pokoušíme, je vlastně fenomenologie vědy, v jejímž rámci je experiment chápán jako informační kanál.)
6. Kupkova geometrie myšlení Pro náš výzkum a aplikaci metody PIG na jiná než biologická data jsme zvolili dílo českého malíře Františka Kupky (1871-‐1957), konkrétně 42 černobílých kreseb, z nichž bylo 35 studií k cyklu Čtyři příběhy bílé a černé (asi 1925, cyklus byl vydán v roce 1926), dále Promenáda bílé čáry (1919-‐21), studie k obrazu Kosmické jaro (1911-‐20), studie Vertikálních a diagonálních plánů (1920-‐21), studie k Mluvě vertikál (1920-‐21), studie k obrazu Zakřivené plány (1926), studie k obrazu Okolo bodu (1911-‐30) a studie ke Dvěma modrým (1950). František Kupka studoval v na Akademii výtvarného umění v Praze a ve Vídni, ale uzavřeným světem akademií poměrně otevřeně pohrdnul a později se přesunul do Francie, dlouho pobýval v Paříži, živil se ilustrováním, přátelil se s mnoha umělci, studoval na Sorbonně přírodní vědy, fyziku, biologii a fyziologii a díky mikroskopu se mu otevřel svět mikrokosmu. Poslední léta života prožil v Puteaux, odkud měl blízko jak do Paříže, tak k přírodě.
20
V roce 2012 uběhlo sto let od prvního veřejného vystvavení Amorfy – Dvoubarevné fugy na pařížském Podzimním salonu. Rok 1912, který bývá uváděn jako rok zrodu abstraktního malířství a byl také rokem Kupkova uměleckého obratu, také připomněla pražská výstava Cesta k Amorfě pořádaná Národní galerií v Salmovském paláci, na níž byla vystavena Kupkova díla, která byla prezentována v rámci pařížských salonů v letech 1910 – 1913.29 V roce 2012 také vyšla kniha Geometrie myšlenek30, v níž se znalec Kupkova díla Karel Srp zaměřuje na Kupkovu cestu k abstrakci (to je ostatně nosné téma veškerých kupkovských studií), tj. jeho specifický typ syntézy geometrie a přírodní dynamiky. Kupka se, podobně jako většina předních umělců počátku 20. století, zabýval vývojem abstraktních motivů – ale neuchyloval se k takové systematičnosti, aby vytvářel gramatiku abstraktních forem jako třeba příslušníci hnutí Bauhaus, i když také promýšlel dynamiku základních (výtvarných) tvarů. Kupka, na rozdíl od např. Kandinského, ukázal (například na Čtyřech příbězích bílé a černé, které označoval jako “scénář mutací různých forem”), že lze myslet abstraktně a “přitom se nezříkat děje, času a pohybu”. (Srp, 16) Jak píše Karel Srp: “Kupka se zmiňoval o propojení zákonitého vnímání a vnitřní struktury zobrazení, ve kterém geometrické tvary hrály jen roli prostředníka.” (Srp, 187) a dodával, že nejde o tvarovou (Gestalt) psychologii, jakkoli je její hledisko přínosné – jde o ontologii tvarů. Kupka nestál ani na straně realismu, protože, jak zjistil, přírodu a skutečnost nelze nikdy vystihnout dostatečně věrně, a už vůbec ne na straně iluze a naturalistického napodobení, které považoval na lež. Odmítal jakékoliv napodobení, a to především od roku 1912, kdy došlo ke zlomu v jeho tvorbě. Záchranu obrazu podle Kupky představovala geometrie, ale ne například tak, jak se jí chopili kubisté (“pykající za zločiny na přírodě a zdravém rozumu”). Kupka se snažil zachytit “principy tvoření”, a to konkrétně například právě ve Čtyřech příbězích bílé a černé, o kterých sám napsal: “Chci hlavně touto sérií dokázat možnosti tvoření v pravém slova smyslu...” (Srp, 179 – z dopisu Waldesovi, 1926). Jak píše Srp o Kupkově díle a specifickém chápání geometrie: “Prostor byl vtěsnán do plochy.” a “Řídil se souřadnicemi nevyplývajícími ze stupně osvojení si předlohy, ale z nadčasové oblasti.” Kupka, který celý život studoval řeckou
29 http://www.cestakamorfe.cz/ 30 Srp, Karel: František Kupka. Geometrie myšlenek, Arbor Vitae, Praha 2012
21
filosofii, zejména Platóna, se pravděpodobně odkazoval na platónskou “říši idejí”, nicméně tato oblast nadčasových principů, idejí, jejichž napodobením jsou všechny pomíjivé věci, může být chápána jako “prostor možností určující podobu konečných procesů a objektů”, “intenzivní prostor”, tak jak ho popisuje francouzský filosof Gilles Deleuze 31 a Manuel DeLanda, který Deleuze interpretuje a uvádí jeho dílo do vztahu k současné vědě. “Zákonitosti zde určuje vnitřní malířský proces.” (Srp, 186) a Kupka analyzující A. Watteaua: “Snažil se zachytit jakýsi zákon samotného mechanismu svého vidinového světa.” Kupka mluví o “kostře vztahů”, zmiňuje “propojení zákonitého vnímání a vnitřní struktury zobrazení, ve kterém geometrické tvary hrály jen roli prostředníka”, malířskou práci popisuje jako hledání morfologické sestavy, která “drží”. Ve všech těchto pokusech popsat to, co leží v základu malířské práce, jde o zachycení zákonitostí, mechanismů, dynamiky skutečnosti, která je zároveň vnější i vnitřní, která je natolik abstraktní, že může být popisem mnoha, ne-‐li všech, úrovní skutečnosti. Z dopisu Waldesovi (16.7.1921): “Čerpání formálních korelací se může díti právě tak dobře pod mikroskopem jako před mrakoškraby newyorskými nebo ve hvězdárně.”
7. Popis analýzy Získali jsme reprodukce z Muzea Kampa, které vlastní významnou část Kupkova díla, a v rámci konference MutaMorphosis (6. – 8. 12. 2012 v Praze)32 jsme náhodnému vzorku lidí, který ovšem nebyl úplně náhodný, protože se jednalo o odborníky a studenty alespoň s minimálním zájmem o oblast umění, dokonce spíše o průnik oblasti vědy a umění, předložili 42 kartiček s reprodukcemi těchto černobílých kreseb a požádali je, aby je rozdělili do pěti skupin podle vizuální podobnosti, tedy podle toho, jak cítí, že patří k sobě. Neurčili jsme žádné další parametry výběru – jestli se mají řídit tvary, stylem kresby, námětem. Ve skupinách mohl být libovolný počet obrázků. PIG/PIE byl v tomto výzkumu poprvé využit k analýze uměleckých děl. Pracovně jsme projekt nazvali Projection of creator’s mind attractors into artifact (Projekce atraktorů z mysli tvůrce do artefaktu). Vycházeli jsme z toho, že PIG/PIE je vlastně mírou informace obsažené v jakémkoliv strukturovaném souboru dat. Koncept je založen na předpokladu, že pozorovatelná multifraktalita přirozených objektů je reflexí struktury vnitřních atraktorů, jejímž odrazem je dynamická
31 Například v knize Tisíc plošin (Herrmann&synové, 2011). DeLanda viz závěr. 32 http://mutamorphosis.org/2012/
22
strukturace pozorovatelných stabilních objektů. Pomocí PIG/PIE měříme stav multifraktálního objektu jako projekci generalizované dimenze spektrální komponenty objektu v daném bodě v multidimenzionálním stavovém prostoru do dvoudimenzionální roviny obrazu. Vycházíme z toho, že máme samoorganizující se, komplexní realitu, jejíž vnitřní dynamika je řízena několika (podivnými) atraktory a my ji vnímáme na povrchu, její “projekci”. Za prvé předpokládáme, že samotný obraz je odrazem atraktorů definujících stav umělcova mozku (lépe řečeno celku kognitivního systému) a za druhé chceme popsat proces vnímání uměleckého díla jako odraz Ljapunovova stabilního objektu – lidského mozku v daném stavu – v interakci s vnímaným obrazem objektu. Navíc předpokládáme, že mozek je kalibrovaný, aby rozpoznával evolučně důležité odlišnosti (což se bude odrážet i v estetických preferencích). Jen jeden komplexní samoorganizující se systém může vnímat jiný (může nacházet analogie). Murray Gell-‐Mann, laureát Nobelovy ceny a jeden z průkopníků teorie komplexity, to nazývá kompozitní komplexní adaptivní systémy (composite complex adaptive systems). Vzorky použijeme jako vstupní data PLSR, najdeme regresní koeficienty, které budou v podstatě určovat, jak je která hodnota alfa z Rényiho entropie zodpovědná za vysvětlení rozdělení. Předpokladem je, že každý pozorovatel rozdělil obrázky jinak, ale měly by existovat některé dimenze, které jsou zodpovědné za nějaký obecný “rys” rozdělování, tj. které se vyskytují u všech. PLS regrese je založena na regresní analýze, v podstatě hledá takovou lineární kombinaci souřadného prostoru, která nejvíce odpovídá (předpovídá) nějaký vektor očekávání (například danou skupinu tříd souboru dat). Hledání této lineární kombinace probíhá opět s využitím principálních komponent. Výstupem tedy je jak nový souřadný prostor, tak regresní koeficienty – váhy souřadného systému pro předpověď vektoru očekávání (čím větší číslo v absolutní hodnotě, tím je původní souřadná osa významnější pro regresi). V našem případě jsou proměnnými, tedy koeficienty souřadného systému, hodnoty parametru alfa z Rényiho entropie a data jsou pozice jednotlivých obrazů v souřadném systému daném hodnotami Rényiho entropie pro daný obraz a jednotlivé alfa parametry. Osoby třídící obrázky se snažily rozdělit obrazy do skupin (tříd) a to je náš vektor očekávání (od každého člověka jeden). Provedeme PLSR, kde data jsou alfa souřadnice obrazů a vektor očekávání je roztřídění do skupin. Získáme principální komponenty, přičemž už z předběžného náhledu víme, že první
23
popisovala asi 99% variance (zároveň tak zjišťujeme, která alfa byla (kvantitativně) důležitá při rozdělovaní do skupin). 33 Bohužel maximalizace variance může být citlivá na šum (v tomto případě tedy náhodu při rozhodování o zařazení do skupin) a tzv. outliery, tedy zvláštnosti, chyby, neboli pozorování, která jsou příliš daleko od zbytku dat. Určuje se to exaktně poměrně složitě, je potřeba provést tzv. křížovou korelaci, kdy se úmyslně jeden či více souborů dat přeřadí jinam, a sleduje se, jak tahle malá chyba na vstupu ovlivní výsledek. Kromě toho se dělá v křížové korelaci ještě promíchání pořadí skupin, rozdělení skupin do podskupin a podobné časově a výpočetně náročné pokusy. Obecně jsou regresní koeficienty robustnější (tedy méně ovlivnitelné) než samotné principální komponenty. Jde o to, že malou změnou dat se změní variance, a tudíž nový souřadný systém (principálních komponent) je v prostoru o něco pootočen. Jakmile určíme podmnožinu robustních regresních koeficientů, bude moci začít porovnávat tyto regresní koeficienty od jednotlivých pozorovatelů mezi sebou. Na to existuje celá řada nástrojů, kterým se říká vektorové metriky a měří vzdálenosti vektorů od sebe (něco jako euklidovské vzdálenosti). Těchto metrik je celá řada a každá se dá různě interpretovat. Co budeme hledat, budou shodné rysy (podobnost) regresních koeficientů, cosi jako vzor (ve skutečnosti hyperplochu34) který bude určovat hodnoty parametru alfa, které jsou shodné ve významnosti pro většinu regresních koeficientů. V průběhu analýzy se rozhodne, která metrika bude nejvhodnější. (Ukazuje se, že často je řešení z oblasti topologie. Mimochodem jedna z možných interpretací parametru alfa z Rényiho entropie je ta, že jde o topologickou vzdálenost v prostoru distribučních funkcí.) Na závěr ještě uděláme náhodné roztřídění do skupin počítačem a to porovnáme s tříděním provedeným člověkem – abychom vyřadili možnost, že jde o náhodné třídění.
33 Zároveň jsme mohli tisknout vizualizaci znázorňující toto rozdělení pro každého konkrétního pozorovatele – vytvářeli jsme osobní „vizitky“ s grafem zachycujícím specifika jednotlivých vnímání, které jsme pokusným osobám věnovali a zároveň jsme vystavili všechny grafy na tabuli, kde jsme je mohli předběžně porovnávat. Naše pracoviště např. zde: http://ciant.cz/index.php/en/gallery/category/496-‐2012-‐12-‐06mutamorphosis?start=20 34 Hyperplocha: topologický prostor, který se skládá z množiny všech uzavřených podmnožin jiného topologického prostoru
24
Závěr Tvary, které vnímáme, jsou funkčními odezvami vnímání. Informace (forma, morfé, tvar) je projevem samoorganizace vyskytující se v systémech udržovaných daleko od rovnováhy. Toto vyvstání, emergence, je nezávislé na chemii i energetice systému. Žijeme v komplexním světě. Jeho vnitřní dynamika je řízena (podivnými) atraktory a to, co v nímáme, je jejich projekce – řez komplexní realitou, vzor (pattern). Realita vnějšího světa, stejně jako komplexní adaptivní systém našeho vědomí mají svou vnitřní dynamiku, kterou nemůžeme vnímat v její úplné komplexitě. Potřebujeme filtry, síta, “obrazovky”, na nichž se nám ukazují vzory a tvary. Tvar v dynamickém systému je reflexe vnitřní energetiky, která musí být “nekonečně běžící” a okrajových podmínek (nerovnováhy). Tvary se vytvářejí pro konkrétní materiální substance, ale v širokém rozmezí podmínek se vytvářejí Ljapunovovsky stejné sekvence po určitou dobu. Většina nalýz tohoto typu je však založena na jednorozměrných datech a vzor se do nich vnáší pomocí sčítání přes čas, čímž vznikne jednorozměrné rozdělení (určující, jak často se vyskytne určitá hodnota). Entropie – ve skutečnosti pouze jednotlivé ortogonální komponenty, na něž lze rozložit naše spektrum entropií informačního zisku bodu (PIG), je měřítkem strukturovanosti. PIG zachycuje stav (multifraktálního) objektu jako projekci generalizované Rényiho entropie objektu v daném bodě v multidimenzionálním prostoru do dvourozměrné plochy. Předpokládá se, že dynamický proces, který se projevuje navenek jako formování vzoru, se vnitřně projevuje maximalizací určité funkce, které říkáme entropie. Tvar je formován entropií – tedy změnou informace nesenou systémem – a to bez ohledu na energetickou bázi. Chemie (ve smyslu koncentrace látek v prostředí) dává procesu dynamiku, ale procesy samoorganizace jsou na ní nezávislé. Důkaz je jednoduchý: jedním z nejznámějších samoorganizujících se systémů/tvarů je Bělousovo-‐Žabotínského reakce (BŽR). Je možno zakoupit si set a vytvořit si její typické tvary v domácích podmínkách, a to už někdy od sedmesátých let dvacátého století. Vtip je v tom, že jak sám výrobce doporučuje v případě, že člověk není spokojen s výsledkem, je možné pokusnou nádobou zatřást a barva se opět změní na počáteční homogenní a vzory se v ní vytvoří znovu. To, že se reakce vytváření vzorů skutečně rozběhne znovu bez ohledu na momentální stav chemické reakce, je důkazem toho, že struktury (tvary, pattern) se vytvářejí bez ohledu na chemii. (BŽR byla předvedena v roce 1968 v Praze a
25
poté následovalo pár let, kdy se podobným výzkumem zabývalo velké množství českých vědců. Ale v okamžiku, kdy Prigogine získal v roce 1977 Nobelovu cenu, byla většina výzkumu týkajícího se samoorganizace zastavena, protože Prigogine byl původně ruský vědec, který emigroval na západ, takže ve východním bloku nebylo žádoucí navazovat na jeho úspěchy.) To znamená, že samoorganizace a tvary, které vytváří, jsou nezávislé na konkrétních podmínkách (chemického, energetického prostředí). To, že v rámci samoorganizujících se systémů vzniká jen několik základních tvarů, je dáno tím, že jen malá sada koeficientů vede k Ljapunovovsky stabilním systémům (tj. systémům, které se, vychýleny z rovnováhy, opět vracejí do oblasti atraktoru).35 Samoorganizace je princip, který by za jistých okolností mohl být chápán jako základnější teorie než například kvantová teorie, tato myšlenková linie má ovšem tak dalekosáhlé důsledky, že přesahuje záměr této práce. Uzavřeme proto výklad paralelními, rezonujícími myšlenkami Manuela DeLandy. Manuel Delanda, původní profesí filmový tvůrce, se již od osmdesátých let 20. století intenzivně zabývá dílem francouzského filosofa Gillesa Deleuze. Vydal několik knih, v nichž interpretuje jeho dílo – se zvláštním ohledem na vývoj současné vědy. V knize Intensive Science and Virtual Philosophy mimojiné vyzdvihuje Deleuzovu přesnou analýzu fázového prostoru (či fázového portrétu – prostoru vyplněného trajektoriemi) v němž na rozdíl od ostatních označil pregnantně ontologický rozdíl mezi trajektoriemi a vektorovým polem. (Což využil k destrukci tradičních distinkcí možnosti a nutnosti – atraktor je reálný, i když není nikdy aktualizovaný, protože trajektorie se k němu blíží asymptoticky – a determinismu – prostor s více atraktory totiž dává systému „na výběr“ – v tom se blíží Prigoginovi a Nicolisovi, u nichž dochází k rozhodnutí pomocí náhodných fluktuací prostředí.) Ve své další knize Philosophy and simulation na svůj předchozí výklad navazuje a definuje pojem mechanism-‐independence neboli nezávislost-‐na-‐mechanismu. Ten zjednodušeně řečeno poukazuje na situaci, kdy prostor možností určuje podobu konečných procesů a objektů, a to tak, že stejný prostor možností může vytvářet různé tvary (v různých materiálních prostředích) – oblíbeným příkladem je krystal soli a bublina, což jsou na pohled odlišné tvary tvary, které
35 Co je ale naprosto senzační, je odhalení, že BŽR vypadá úplně jinak, když změníme tvar nádoby, v níž se odehrává. (V kruhové nádobě vytváří BŽR klasické kruhovité tvary, ve čtvercové vytváří dva symetricky umístěné víry, v trojjúhelníkové se toky střetávají ve středovém bodu.) To znamená, že tomu není tak, že by (stejně jako celulární automaty) fungovala tak, že jednotlivé buňky pouze reflektují stav svých sousedů – musí to být tak, že všechny buňky “vědí” o všech ostatních, že je zde něco jako vědomí celku, protože všechny elementy jsou si nějak “vědomy” hranic systému.
26
však oba vznikly proto, aby se minimalizovalo povrchové napětí. Jinými slovy: stabilita emergentních vlastností je vysvětlena strukturou prostoru možností a fakt, že tato stabilita může být zobrazena úplně jiným mechanismem, je vysvětlena tím, že jejich prostory možností sdílejí stejnou strukturu. Na úplný závěr bych ráda poznamenala, že tento text představuje jakýsi úvod a definici hlavních pojmů, s nimiž pracujeme v rámci našeho výzkumu, v němž zjednodušeně řečeno zkoumáme lidské vnímání, respektive získávání informací o komplexní, samoorganizující se realitě. Jde o natolik široké téma, že přirozeně pokrýváme jen zlomek možné problematiky. Každopádně bude následovat ještě druhá část, v níž bychom rádi představili výsledky našeho výzkumu a jejich možné interpretace.
27
Zdroje Knihy Baeyer, Hans Christian von: Information. The New Language of Science (2003), paperback edition by Phoenix, an imprint of Orion Books Ltd, London 2004 Capra, Fritjof: Tkáň života. Nová syntéza mysli a hmoty, Academia, Praha 2004 (The Web of Life. A New Synthesis of Mind and Matter, HarperCollins 1996) Coveney, Peter; Highfield, Roger: Mezi chaosem a řádem. Hranice komplexity: hledání řádu v chaotickém světě, Mladá Fronta, edic Kolumbus, Praha 2003 (první vydání 1995) Delanda, Manuel: Intensive Science and Virtual Philosophy (Continuum 2002/reprinted 2010) Delanda, Manuel: Philosophy and Simulation. The Emergence of Synthetic reason, First Edition, Continuum 2011 Flusser, Vilém: The Shape of things. A Philosophy of Design, Reaktion Books, London 2012 (First Edition in English 1999, in German 1993) Gell-‐Mann, Murray: The Quark and the Jaguar. Adventures in the Simple and the Complex (1994), Holt Paperback, New York Gleick, James: The Information. A History. A Theory. A Flood, Pantheon Books, New York, First Edition 2011 Hayles, N. Katherine: How We Became Posthuman. Virtual Bodies in Cybernetics, Literature and Informatics, tHe University of Chicago Press, First Edition 1999 Chaitin, Gregory: Information, Randomness and Incompleteness: Papers on Algorithmic Information Theory (Series in Computer Science), World Scientific Pub Co Inc; 2 Sub edition (April 1990) Mitchell, Melanie: Complexity (A guided tour), Oxford University Press, New York,
First Edition 2009
Shannon, Claude E.; Weaver, Warren: The Mathematical Theory of Communication (1948), reprint University of Illinois Press; 1st edition (September 1, 1998)
28
Srp, Karel: František Kupka. Geometrie myšlenek, Arbor Vitae, Praha 2012 Von Neumann, John: Mathematical Foundations of Quantum Mechanics (1932), reprint: Princeton University Press; translation from German edition (October 28, 1996) Články: James P. Crutchfield: Five Questions on Complexity. Stable URL: http://csc.ucdavis.edu/~chaos/papers/QsOnComplexity.pdf Jizba, Petr; Arimitsu, Toshihico: The world according to R�enyi: thermodynamics of multifractal systems, Annals of Physics 312 (2004) 17–59. Stable URL: http://www.fjfi.cvut.cz/files/k402/pers_hpgs/jizba/publications/Jizba,%20Arimitsu,%20Annals%20of%20Physics,%20312%20(2004)%2017-‐59.pdf Martyushev, Leonid M.: Entropy and Entropy Production: Old Misconceptions and New Breakthroughs, journal Entropy, special edition Maximum Entropy Production, Mars 2013 (ISSN 1099-‐4300). Stable URL: http://www.mdpi.com/1099-‐4300/15/4/1152 Turing, A.M.: The Chemical Basis of Morphogenesis, Sciences, Vol. 237, No. 641 (Aug. 14, 1952), pp. 37-‐72. Stable URL: http://www.jstor.org/stable/92463 Kolektiv autorů (Dalibor Štys, Petr Jizba, jan Urban, Tomáš Náhlík, Dalibor K. Štys): Point Information Gain, Point Information Gain Entroy and Point Divergence Gain: measures of information in a structured dataset, 2012 (preprint submitted to Physics Report) Kolektiv autorů (Dalibor Štys, Jan Urban, Jan Vaněk, Petr Císař): Analysis of biological time-‐lapse microscopic experiment from the point of view of the information theory, 2009 (preprint submitted to Micron)