28
1 Dita Malečková Informační věda a teorie komplexity Text ke zkoušce Informační věda Ústav informačních studií a knihovnictví Filosofická fakulta Univerzita Karlova v Praze V/2013

Informační věda a teorie komplexity

  • Upload
    cuni

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

  1  

     

Dita  Malečková      

Informační  věda  a  teorie  komplexity    

 Text  ke  zkoušce  Informační  věda    

   

Ústav  informačních  studií  a  knihovnictví  Filosofická  fakulta  

Univerzita  Karlova  v  Praze    

   

     

V/2013      

   

  2  

Informační  věda  a  teorie  komplexity    

Obrazová  analýza  z  hlediska  informační  vědy  využívající  pojem  PIG  (Point  Information  Gain,  informační  přínos  bodu)  a  PIE  (Point  Information  Gain  

Entropy,  entropie  informačního  přínosu  bodu)/Image  analysis  from  the  point  of  view  of  the  information  theory  using  the  notion  of  PIG  (Point  Information  Gain)  

and  PIE  (Point  Information  Gain  Entropy)      

Ve  spolupráci  s:  Dalibor  Štys,  Jan  Urban,  Anna  Zhyrova,  Renata  Rychtáriková,  

Tomáš  Náhlík,  Dalibor  Štys  jr.  Laboratoř  aplikované  systémové  biologie,  Škola  komplexních  systémů  

Fakulta  rybářství  a  ochrany  vod,  Jihočeská  univerzita        

Osnova  OSNOVA   2  

ČÁST  I   3  ÚVOD  DO  PROBLEMATIKY   3  1.  ENTROPIE  A  INFORMACE   3  1.1  CLAUSIUS   4  1.2  BOLTZMANN   4  1.3  MAXWELLŮV  DÉMON   5  1.4  SZILARD   6  1.5  SHANNON   6  1.6  RÉNYI   8  1.7  INFORMACE  A  TVAR   9  2.  KOMPLEXITA   11  

ČÁST  II   14  4.  ŠKOLA  KOMPLEXNÍCH  SYSTÉMŮ   14  5.  DEFINICE  ZÁKLADNÍCH  POJMŮ  TEORIE  DYNAMICKÝCH  SYSTÉMU  A  POJMŮ  PIG  (POINT  INFORMATION  GAIN),  PDG  (POINT  DIVERGETION  GAIN),  PIE  (POINT  INFORMATION  ENTROPY)  A  PIED  (POINT  INFORMATION  ENTROPY  DENSITY)   15  6.  KUPKOVA  GEOMETRIE  MYŠLENÍ   19  7.  POPIS  ANALÝZY   21  

ZÁVĚR   24  ZDROJE   27    

  3  

ČÁST  I    

Úvod  do  problematiky    

Ve  svém  studijním  záměru  jsem  si  vytýčila  cíl  zkoumat  to,  co  se  na  nejobecnější  úrovni   dá   popsat   jako   vztah   informace   a   komplexity.   Informací,   způsoby   jejího  uchování,   zpracování  a  přenosu  se  zabývá   informační   věda.  Komplexitou,   tedy  zkoumáním  komplexních  či  komplexních  adaptivních  systémů  se  zabývá  věda  o  komplexitě,   což   je   mezioborová   platforma,   na   níž   se,   ostatně   podobně   jako   v  informační   vědě,   odhlíží   od   konkrétních   určení   zkoumaného   systému,   tedy  například  od  toho,  zda  je  lidský,  živý,  či  umělý.  To,  co  nás  zajímá,  je  právě  pouze  způsob,  jakým  se  zde  přenáší,  uchovává,  vytváří  informace.      Budeme-­‐li  zde  operovat  s  pojmem  informace  a  informační  věda,  předesíláme,  že  jde  o  pojetí,  které  vychází  z  Shannonovy  matematické  teorie  komunikace,  tak  jak  ji  definoval  ve  čtyřicátých  letech  20.  století.      Informace  je  zde  popisována  v  kontextu  přenosu  dat  a  ve  vztahu  k  veličině,  která  je   dodnes,   více   než   století   od   svého   objevení   a   popsání,   tak   trochu   záhadná   –  entropie.      

1.  ENTROPIE  A  INFORMACE    Jedním  z  překvapivých  momentů  Shannonovy   teorie   informace  bylo  ztotožnění  informace   a   entropie,   a   to   proto,   že   informace   byla   tradičně   chápána   jako  protiklad   entropie   –   informace   jako   uspořádanost   oproti   rozkladu,   rozpadu,  spění   k   chaosu,   neuspořádanosti.   (Odtud   i   pojetí   informace   jako   negentropie  neboli   negativní   entropie.1)   Shannonova   entropie   dlouho   čelila   kritice   ohledně  toho,  zda  vůbec  jde  o  entropii,  postupem  času  se  ale  ukázalo,  že  jde  o  obecnější  formu   entropie,   než   je   termodynamická.   Na   definici   pojmu   entropie   můžeme  vidět  nejen  evoluci  pojmu  představující  v  určitém  smyslu  vývoj  typický  pro  vědu  dvacátého  století,  ale  také  vývoj  pojmu  klíčového  pro  vymezení  pojetí  informace.  (Entropie   jako  modelová   veličina   v   rámci   systémů   složených   z  mnoha   prvků   s  globálními,   emergentními   vlastnostmi.)   Začněme   tím,   že   budeme   entropii  popisovat   jako   neurčitost   spíše   než   neuspořádanost.   Jak   píše   Leonid   M.  Martyushev2  v  článku  pro  časopis  Entropy:   Jádro  nedorozumění  ohledně  pojmu  entropie   leží   v   rozdílných   pojetích   pojmu   řád.   Pro   laiky   je   řád   představován                                                                                                                  1  Negentropie  neboli  negativní  entropie  je  entropie,  kterou  vydává  živý  systém,  aby  ji  udržel  na    2  Entropy  and  Entropy  Production:  Old  Misconceptions  and  New  Breakthroughs,  Entropy    April    2013    

  4  

systematičností   a   uspořádaností,   zatímco   pro   odborníky   je   založen   na  komplexitě   předpovědi   (chování   systému).   Tato   komplexita   souvisí   s   počtem  mikrostavů  –  čím  větší  je  jejich  počet,  tím  vyšší  je  komplexita  a  tím  obtížnější  je  předpověď.   Navíc   laik   se   pohybuje   v   trojdimenzionálním   prostoru,   zatímco  odborník   v   6D   fázovém   prostoru,   v   němž   se   berou   v   úvahu   vztahy   mezi  úrovněmi.   Ale   to   už   jsme   předběhli   –   začněme   stručnou   historií   vývoje   pojmu  entropie.      

1.1  CLAUSIUS    Pojem   entropie   zavedl   Rudolf   Clausius   v   šedesátých   letech   19.   století,   ale   za  iniciátora   nutnosti   definice   tohoto   pojmu   je   obecně   považován   Sadi   Carnot.  Carnota   přivedly   úvahy,   jak   sestrojit   nejefektivnější   tepelný   stroj,   k   formulaci  matematické   teorie   tepla,   která   se   stala   základem   termodynamiky   zabývající   se  přeměnami  tepla  v  práci  nebo  naopak  a  vzájemnými  vztahy  mezi  teplem  a  jinými  druhy  energie.  Clausius  vytvořil  ve  svém  díle  z  roku  1865  The  mechanical  theory  of  heat  stabilnější  základ  pro  termodynamiku,  když  ukázal,  že  mezi  Carnotovým  principem   a   pojetím   zachování   energie   je   rozpor   a   vyřešil   ho   vytvořením  dvou  termodynamických  zákonů.  Tyto  dvě  termodynamické  věty  či  zákony  znějí:    

1. Energie  vesmíru  je  konstantní.  2. Entropie  ve  vesmírů  vzrůstá,  dokud  nedosáhne  maxima.  

 Jinými   slovy,   energie   nemůže   být   vytvořena,   ani   zničena,   i   když   může   být  transformována.  Zároveň  množství  energie,  která  nemůže  být  přeměněna  zpět  v  práci,  vzrůstá,  dokud  nedosáhne  svého  maxima.      Matematický  koncept  entropie  Clausius  popsal  v  roce  1865  a  pojmenoval  ji  podle  řeckého   entrepo,   což   znamená   obracet,   měnit   (kořen   tropos   znamená   směr,  způsob,  charakter).  (Entropie  mělo  být  slovo  co  nejpodobnější  energii,  s  níž  bylo  nedílně  spojeno.  Zkratka  S  prý  byla  poctou  Sadi  Carnotovi.  )    

1.2  BOLTZMANN    Shodnout   se  na  definici  pojmu  entropie  není   snadné,  protože  od  dob  Clausia   se  byla  mnohokrát   přeformulována.   Jednoduchým   řešením   je   chápat   entropii   jako  to,   co   je   vyjádřeno   rovnicí   (protože   entropie   musí   být   vždy   vyjádřena  matematicky).     První   vzorec   pro   výpočet   entropie   S=Q/T   vytvořený   Clausiem  definoval  entropii  jako  poměr  tepla  (dnes  bychom  řekli  vnitřní  tepelné  energie)  a  teploty   (jde   o   jedinou   teplotu   –   tu,   kterou   má   systém   v  termodynamické  rovnováze).   Další   vzorce   tento   poměr   upřesňovaly:   Druhý   vzorec   určoval,   že  změna  entropie  rovná  se  změně  tepla  lomené  teplotou  –  entropie  stoupá,  či  klesá  

  5  

s  vnitřní   tepelnou   energií.   Další,   že   změna   entropie   se   rovná   změna   (dodané)  energie  mínus  změna  množství  mechanické  práce  vykonané  systémem  (energie  přeměněná  v  práci)   lomeno   teplotou.  Opravdu   radikální  proměnu  úhlu  pohledu  přináší   vzorec,   který   je   již   výsledkem   aplikace   statistické   mechaniky,   slavný  Boltzmannův   vzorec,   v  němž   je   entropie   násobkem   libovolně   zvolené  (Boltzmannovy)   konstanty   a   logaritmu   N,   což   je   celkový   počet   mikrostavů  dostupných   systému   –   což   není   celkový   počet   částic,   ale  mikrostavů,   v  nichž   se  tyto  částice  mohou  nacházet  a  mít  za  výsledek  stejný  makrostav  (zde  teplotu).    

1.3  MAXWELLŮV  DÉMON    Maxwellův  démon   je  myšlenkový  experiment,  kterým  J.  C.  Maxwell,  autor  knihy  Theory  of  Heat  z  roku  1871,  zamotal  hlavu  mnoha  vědcům  na  několik  desítek  let.  Připomeňme  si,  že  podle  druhého  zákona  termodynamiky  entropie  v  uzavřených  systémech   vzrůstá   (a   aby   se   snižovala,   je   potřeba   dodané   energie   –   práce)3.  Maxwellův   démon   funguje   na   velmi   jednoduchém   principu.   Kdybychom   měli  prostor,   řekněme   krabici   rozdělenou   na   dvě   poloviny,   v  nichž   v  jedné   by   byly  pomalé  částice  a  druhé  rychlé  (vytvářející  teplo)  a  mezi  polovinami  by  byl  otvor,  postupem  času  by  se  částice  promísily  ve  stejnorodou  směs.  Maxwellův  démon  je  malý  mužíček,  který  stojí  u  propusti  a  rozděluje  rychlé  a  pomalé  částice,  aby  tak  zůstaly   odděleny,   přičemž   se   zdá,   že   nemusí   vykonat   žádnou   práci   (dvířka  propusti   se   otevírají   důmyslným   způsobem   nevyžadujícím   úsilí)   a   přitom  způsobuje,  že  entropie  nevzrůstá.  Tento  na  první  pohled   triviání  problém  řešily  generace   fyziků.   Protože  Maxwell   chtěl   tímto   experimentem   dokázat,   že   druhý  zákon   není   vlastně   zákon,   ale   jen   statistický   efekt   platný   pro   populaci,   ne   na  úrovni   jednotlivých   molekul,   nejvíce   se   jeho   představě   řešení   přiblížil   Ludwig  Boltzmann,   který   svým   řešením   založil   statistickou   mechaniku,   jejíž   princip   je  zkráceně  v  tom,  že  makrostavy  jsou  výsledkem  mikrostavů  (mikrostav   je  pozice  a  rychlost  molekul   vzduchu,  makrostav   je   stav,   kdy  můžeme   v  místnosti   dýchat).  Makrostav  je  stav  velkého  množství  částic,  který  lze  určit  pouze  statisticky,  tedy  lze   určit   s  jakou   pravděpodobností   může   nastat.   Statistická   mechanika   se   tak  stává   spojnicí   mezi   newtonovskou   fyzikou   (vlastnosti   jednotlivých   molekul)   a  klasickou   termodynamikou   (makrostavy).   Určuje   průměrné,   tedy   pouze  pravděpodobnostní  pozice  populací  molekul.  Druhý  zákon  tak  podle  Boltzmanna  zní:   Uzavřený   systém   se   bude   nacházet   v  pravděpodobnějším   stavu   (entropie  bude  růst  do  makrostavu  s  nejvyšší  možnou  entropií,  tj.  pravděpodobností).    Ona   jediná   teplota   uzavřeného   rovnovážného   systému   je   tak   vlastně  nejpravděpodobnějším   stavem   molekul   systému.   Kinetická   teorie   plynů  postuluje,  že  existuje  střední  volná  dráha  neboli  průměrná  hodnota  dráhy,  kterou                                                                                                                  3  Z  toho  plynula  i  představa  tepelné  smrti  vesmíru,  kdy  se  na  konci  času  všechny  diference  vyrovnají  a  nastane  maximálně  neurčitý,  homogenní  a  neorganizovaný  stav.  

  6  

urazí   molekula   plynu   (než   na   něco   narazí),   což   znamená,   že   jakkoli   se  mikroskopicky  plyn  neustále  mění   (molekuly   se  pohybují   různými   rychlostmi   a  směry),  makroskopicky  zůstává  stejný  (při  srážce  dvou  molekul  se  mění  dráha  i  rychlost,   ale   součet   zůstává  stejný4).   Jinými   slovy  makroskopické  veličiny  závisí  na  středních  hodnotách.5      

1.4  SZILARD    Řešení  problému  Maxwellova  démona  mělo  mnoho  dalších  zajímavých  a  vlivných  implikací.   V   roce  1929  přišel   Léo   Szilard   s  řešením,   v  němž  úplně  poprvé   spojil  informaci   a   entropii:   inteligence   démona   je   akt   získání   informace   měřením,   k  němuž   je  potřeba  energie  (měření  má  za  následek  větší  uspořádanost,  a  snižuje  tedy   entropii,   ale   je   k  němu   zapotřebí   energie,   a   tak   entropii   také   zvyšuje).  Szilardovo   řešení   problému   Maxwellova   démona   definuje   jako   neživý   přístroj  (device)   s   pamětí.   Možnosti   perpetua   mobile   zabraňuje   to,   že   informace   není  zadarmo.   Informace   se   stává   součástí   fyzikálního   světa   (démon   vytvořil   tuto  spojnici;   konverzi   mezi   informací   a   energií).   Každá   jednotka   informace   přináší  odpovídající  zvýšení  entropie.  Zároveň  Szilard  poprvé  definoval  bit   informace,  a  to   jako   míru   informace   obsaženou   v   základním   rozlišení   ano/ne,   zde  pomalé/rychlé.6    

1.5  SHANNON    U   Clausia   byla   entropie   čistě   termodynamickou   veličinou,   která   neměla   mimo  fyziku   smysl,   od   doby   Boltzmanna   a   Gibbse,   kdy   byla   popsána  matematicky,   je  aplikovatelná   na   jakýkoliv   statisticky   popsatelný   systém   –   poprvé   tedy   vznikla  možnost  mluvit  o  entropii  mimo  termodynamiku  nebo  dokonce  fyziku  –  možnost,  které   využil   Claude   Shannon.   Shannon   ve   své   Matematické   teorii   komunikace  (1948)   spojil   pojem   entropie   a   informace.   Vznikla   tzv.   Shannon-­‐Weaverova,  zkráceně   Shannonova   neboli   informační   entropie.   Boltzmannova   entropie   byla  totiž  podle   Shannona   jediná   funkce,   která  uspokojovala  nároky  na   funkci,   která  by  měřila  nejistotu  obsaženou  ve  zprávě  (kde  „zpráva“  je  vlákno  binárních  bitů).  Stejně  jako  u  termodynamiky,  která  byla  reakcí  na  tehdejší  moderní  technologie,  souvisely  problémy,  které  řešil  C.  E.  Shannon,  s  novými  technologiemi  své  doby,  telegrafem   a   telefonem.   Shannon  pracoval   v  Bell   Labs   a   řešil   přenos   signálu   po  síti,   neboli   problém   šumu   a   ztráty   dat.   Jeho   řešení   se   ale   nakonec   stalo   nejen                                                                                                                  4  Neboli  rozložení  rychlostí  velkého  množství  molekul  je  stálé:  Maxwellův  rozdělovací  zákon  5  To  platí  pro  systémy  s  vlkým  množstvím  částic  –  u  malého  množství  dochází  k  fluktuacím  (viz  Brownův  pohyb).  6  Dalším,   symetrickým   řešením   paradoxu   Maxwellova   démona   je   Landauerův   princip.   Rolf  Landauer   v  něm   postuloval,   že   snížení   entropie   je   kompenzováno   ztrátou   energie   (a   tedy  zvýšením  entropie)  nutné  ne  k  získání,  ale  k  vymazání  (jednoho  bitu)  informace.    

  7  

technickým  nástrojem,  nýbrž   i  základem  informační   teorie  (Information  theory).  Obdobně   jako   řešil   Clausius   ztrátu   tepla,   hledal   Shannon   vyjádření  míry   ztráty  informace   při   přenosu   dat.   Shannonova   entropie   je   ale   mnohem   obecnější,   je  použitelná   všude,   kde   jsou   neznámé   kvantity,   které  mohou   být   popsány   jedině  pravděpodobnostním  rozdělením.7      Shannon  předpokládal,  že  máme  set  událostí,  jejichž  pravděpodobnost  výskytu  je  p1,  p2...  pn.  Pravděpodobnosti   jsou  známy,  ale   to   je  vše,  co  o   tom,  která  událost  nastane,   víme.   Můžeme   najít   míru   toho,   kolik   “výběru”   je   zahrnuto   v   selekci  události  či  jak  nejistí  jsme  ohledně  výsledku?  (Přičemž  nejistota  plyne  z  množství  možností,  ze  kterých  vybíráme.)  A  jak  tuto  míru  či  veličiny  pojmenovat?  Shannon  ji  chtěl  nazval  informace  nebo  neurčitost,  ale  John  von  Neumann  měl  lepší  nápad:  “Měl   bys   ji   nazvat   entropie,   a   to   ze   dvou   důvodů.   Za   prvé   už   je   tato   funkce  neurčitosti  stejně  pojmenována  ve  statistické  mechanice.  A  za  druhé,  nikdo  neví,  co  entropie  skutečně  je,  takže  v  debatě  budeš  mít  vždycky  výhodu.”8    Podle  další  z  verzí   dokonce   von   Neumann   neřekl   jen,   že   tento   pojem   se   používá   v  termodynamice  a  má  podobný  význam,  ale  dokonce,  že  Shannonova  míra,  později  nazvaná  entropie,  je  speciálním  případem  jeho  vlastní,  von  Neumannovy  entropie  (součást  kvantové  teorie,  v  té  době  používaná  ve  statistické  fyzice).9      Shannonova   definice   informace,   tak   jak   se   objevila   v  díle   Matematická   teorie  komunikace  z  roku  1948,  zní:      Information   of   a   macrostate   (a   source)   as   a   function   of   the   number   of  possible  microstates   (ensemble   of   possible  messages)   that   could   be   sent   by  that  source.    (Informace   makrostavu   (zdroje)   je   funkcí   počtu   možných   mikrostavů   (celku  možných  zpráv),  které  mohou  být  odeslány  tímto  zdrojem.)    Během  pár  let  se  Shannonova  práce  stala  ve  vědeckých  kruzích  proslulou,  a  když  v  roce  1948  vyšla  i  s  komentářem  Warrena  Weavera,  podle  mnohých  zapůsobila  jako   časovaná   bomba.   Informace   je   zde   informací   zbavenou   významu,  psychologického  faktoru,  sémantického  obsahu.  Je:  nejistotou  (měřitelná  počtem  možných   zpráv),   překvapením   (neboli   malou   pravděpodobností   výskytu),  obtížností   (přenosu   zprávy)   a   entropií.   V   této   definici,   která   odhlíží   od  sémantické   složky   a   soustředí   se   na   protiklad   informace   a   šumu,   je   informace                                                                                                                  7  Například   podle   E.   Jaynese   je   termodynamická     entropie    jen   zvláštním   případem   informační  entropie:  vždy  jde  o  pravděpodobnost,  že  nastane  specifický  mikrostav  systému,  který  se  projeví  jako  daný  makrostav.  8  Například  zde:    http://www.markwilde.com/teaching/notes/ch-­‐11-­‐q-­‐info-­‐entropy.pdf  9 Von   Neumann:   Matematické   základy   kvantové   mechaniky   (1932):   fenomenologická  termodynamika  znamená  zkoumání  na  makro,  ne  mikro  úrovni    

  8  

chápána   ne   jako   zpráva,   ale   signál   –     posílá   se   vždy   signál,   který   může   nést  zprávu.   Shannonův   model   komunikace   obsahuje:   zdroj   (osobu   či   stroj),  transmiter  kódující  zprávu,  kanál  (médium  přenosu  signálu),  přijímač  dekódující  zprávu,   příjemce   (člověka   či   věc)   a   zdroj   šumu.   Signál   definoval   jako   proud  diskrétních   symbolů   spíše  než  kontinuální   vlnu,   jako  obranu  proti   šumu  zavedl  symboly   navíc   (stejně   funguje   redundance   využívaná   v  přirozených   jazycích)   a    učinil   metodu   použitelnou   i   pro   počítače.   Pojem   komunikace   se   tak   rozšiřuje  třeba   i   na   oblast   umění,   obecně   vlastně   lidské   chování,   ba   dokonce   i   ne-­‐lidské  chování   –   i   stroj   může   být   odesílatelem   zprávy.   Navíc   zapojil   fyziku  stochastických  procesů,  které  nejsou  ani  deterministické,  ani  náhodné,  ale  řídí  se  souborem   pravděpodobností.   Pokud   postulujeme,   že   každá   událost   má   jistou  pravděpodobnost   závisející   na   stavu   systému   a   historii   a   za   událost   dosadíme  symbol,   pak   nám   vyjde   jazyk   jako   stochastický   proces.   Výběr   způsobující  nejistotu   ohledně   toho,   co   nastane,   je   informačním   obsahem.   Tzv.   Shannonova  entropie   vycházející   z  pravděpodobnosti   zprávy   má   za   jednotku   bit   (tedy  rozlišení  ano/ne,  1/0)  a  zpráva  zde  není  tvořena,  ale    vybírána  –  zpráva  je  výběr.        

1.6  RÉNYI    Maďarský   matematik   Alfréd   Rényi   (1921-­‐1970)   byl   schopen   vytvořit   entropii  vlastní   fraktálním   geometriím.   Rényiho   informační   entropie   umožnila   studium  statistických   vlastností   multifraktálních   systémů   skrz   rozšíření   pojetí  Shannonovy  (Gibbs-­‐Shannonovy)  entropie.      Studiem   statistických   vlastností   multifraktálních   systémů   skrz   rozšíření   pojetí  Shannonovy  entropie  na  obecnější   rámec  –  Rényiho   informační  entropii  –  se  ve  své   práci   zabývají   český   fyzik   Petr   Jizba   a   jeho   japonský   kolega   Toshihico  Arimitsu.10  Předpokládají,  že  princip  maximální  entropie11  poskytuje  přechod    od  Rényiho  informační  entropie  (RIE)  k  termodynamice  multifraktálů.  Otázka,  která  je   zde   pokládána,   zní:   jaké   modifikace   ve   statistické   fyzice   můžeme   očekávat,  když   se   jedná   o   systémy   s   různou   fraktální   dimenzí   –  multifraktály.   (Fraktální  dimenze   určuje   míru   nepravidelnosti   útvaru,   klasické   fraktály   mají   jednu  hodnotu   fraktální   dimenze,   multifraktály   jich   mají   nekonečně   mnoho.)   Pohled,  který  se  zde  nabízí,  spočívá  na  dvou  vzájemně  provázaných  konceptech,  Rényiho  informační   entropii   a   multifraktální   geometrii.   Rényiho   informační   entropie   je  nejobecnější   funkční   formou   přenášené   informace.   (Shannonova   může   být  chápána   jako   její   speciální   případ   (v   případě   alfa=1).   Důvodem,   proč   není  

                                                                                                               10  Další  info  např.  zde:  http://www.fjfi.cvut.cz/files/k402/pers_hpgs/jizba/  11  Princip  maximální  entropie  (maxEnt)  určuje,  že  pokud  o  daném  rozdělení  máme  jen  částečnou  informaci,  tj.  známe  jen  některé  jeho  charakteristiky,  potom  nejpravděpodobnější  tvar  daného  rozdělení  je  ten,  který  má  nejvyšší  možnou  entropii.  

  9  

Rényiho  entropie  aplikována  tak  široce  jako  Shannonova,  je  podle  autorů  zřejmě  dvojznačná   renormalizace   pro  nediskrétní   distribuce   a  malý   vhled  do   významu  parametru   alfa.   (Předmětem   jejich   výzkumu   jsou   také   otázky   jako   RIE   vs  Tsallisova-­‐Havrdova-­‐Charvátova  (THC)  entropie.12)    Propojení   fyziky   a   informační   vědy   potvrzují   sami   autoři:   “v   posledních   dvou  desetiletích   došlo   k   explozivnímu   nárůstu   aktivity   v   rovnovážné   i   nerovnovážné  statistické   fyzice   díky   ideám   převzatým   z   informační   vědy,   teorie   chaotických  dynamických  systémů,  kritických  fenoménů  a  kvantové  teorie  pole  (klíčovými  pojmy  jsou:   zobecněné   míry   informace,   kvaziperiodické   a   podivné   atraktory,   perkolace,  renormalizace).”13        

1.7  INFORMACE  A  TVAR    V  Shannonově  Matematické  teorii  komunikace  (1948)  byla  poprvé  spojena  fyzická  informace   a   matematická   teorie.   Jak   píše   James   Gleick   ve   své   knize   The  Information14,  což   je   vlastně   obsáhlá   historie   tohoto   klíčového   pojmu,   Shannon  svou  prací,  i  když  to  nebylo  ihned  zřejmé,  ustanovil  informaci  jako  „krev  a  pohon“  („blood&fuel“)   našeho   světa.   Až   v  okamžiku,   kdy   byla   informace   definována  v  rámci   informační   vědy,   tedy   právě   v   Shannonově   Matematické   teorii  komunikace,   mohla   se   stát   pojmem   propojujícím   různé   obory.   Informace   je  definována  různě  v  různých  ohledech  a  kontextech  ve  fyzice,  matematice,  biologii,  sociologii,  filosofii,  sémantice,  psychologii  či  kybernetice,  ale  právě  díky  tomu,  že  existuje   základní   společná   definice,   je   možné   hledat   a   nacházet   paralely   mezi  jinak  vzdálenými  oblastmi.      Co   se   týče   předchozího   života   pojmu   informace,   shrňme   v  krátkosti,   že   vychází  etymologicky   z  latinského   slova   informatio,   od   slovesa   informare   užívaného   ve  smyslu   zformovat,   většinou   užívaného   ve   smyslu   zformovat   myšlenku   či   mysl.  Pojem  souvisí  se  starořeckým  morfé  (μορφή)  a  eidos  (εἶδος),  které  byly  do  latiny  přeloženy   jako   forma  a   idea/tvar.  Forma   je  pojem  odkazující  k  Platónově  eidos,  ideji  a  Aristotelově  morfé,   formě.  Týká  se  tedy  archetypů,  vzorů  věcí,  respektive  poznatelné  podstaty  věci.  Běžnější  užití  slova  forma,  tak  jak  se  vyskytuje  třeba  v  biologii,  znamená  tvar  věcí  či  bytostí.                                                                                                                    12  Rozdíl  mezi  Rényiho  a  THC  (Tsallis-­‐Havrda-­‐Charvát)  entropií  je  především  v  tom,  že  THC  entropie  není  aditivní  (pravděpodobnost  dvou  událostí  s  jedním  výstupem  se  nesčítá).  Jde  o  problém  diskrétních  a  kontinuálních  pravděpodobnostních  distribucí.  Tsallis-­‐Havrda-­‐Charvátova  entropie  je  pjetí  entropie,  jak  ji  rozvíjeli  v  60.  letech  v  Československu  Havrda  a  Charvát  a  jak  ji  chápe  Constantino  Tsallis.  Havrdova  a  Charvátova  práce  byla  bohužel  přerušena  jejich  emigrací  po  roce  1968.    13  Jizba,  Petr;  Arimitsu,  Toshihico:  The  world  according  to  R�enyi:  thermodynamics  of  multifractal  systems,  Annals  of  Physics  312  (2004)  14  Gleick,  James:  The  Information.  A  History.  A  Theory.  A  Flood,  Pantheon  Books,  New  York,  2011  

  10  

 Bez   dalšího   zbytečného   zabíhání   do   etymologických   odboček   shrňme,   že  informaci  vnímáme  jako  pravidelnost,  pravidlo,  vzorec,  vzor,  tvar,  formu.      Informace  a  forma  je  téma,  kterým  se  zabýval  mimo  jinými  například  také  Vilém  Flusser,   který   v  knize   The   Shape   of   things15  definuje   informaci   jako   in-­‐formaci:  formování  beztvaré  hmoty  v  inteligibilní  formy.16      Alan  Turing  pracoval  léta  na  matematické  teorii  tvaru  (morfogeneze):  upřesnil,  že  vztahy  mezi  částmi  nemusejí  být  prostorové,  ale  i  časové,  logické,  či  kauzální  a  stále   jde  o   formy;   viz  např.   časový  vztah  vzoru  elektrických   impulsů   zasílaných  telegrafem.  Povstávání  prostorových  obrazců  popsal  jako  efekt  nelineárních  dějů  –   práh   vzniku   takových   obrazců   se   označuje   jako   Turingova   nestabilita.  Turingovou   průkopnickou   a   ve   své   době   nedoceněnou   prací   se   zabýval   i   Ilya  Prigogine,   který   později   vytvořil   pojem   disipativní   struktury,   což   jsou   právě  systémy   udržující   se   daleko   od   rovnováhy,   kde   se   tradičně   předpokládala  náchylnost   k  neuspořádanosti,   ale   Prigogine   zde   objevil   tendence   k  organizaci,  respektive  sebe-­‐organizaci  a  vzniku  komplexity.    I  Fritjof  Capra,  fyzik  a  badatel  v  oblasti  systémových  teorií,  se  v  knize  Web  of  Life  (česky   Tkáň   života)17  věnuje   zkoumání   komplexity   díky   syntéze   studií   látky   a  formy   neboli   uspořádání.   „Porozumění   životu   ze   systémového   hlediska   začíná  pochopením  uspořádání.”  (Capra,  83)    Jak  uvádí  Hans  Christian  von  Baeyer  ve  své  knize  Information.  The  New  Language  of   Science18,   spisovatel   Paul   Young   našel   osm   synonym   pro   slovo   informace:  uspořádání,   konfigurace,   řád,   organizace,   vzor,   tvar,   struktura   a   vztah.   Možná  překvapivě  je  pro  něj  slovem,  které  podle  něj  informaci  vyjadřuje  nejlépe  napříč  obory,   vztah.   Informace   není   to   samé   jako   forma,   ale   odkazuje   ke   kladení,  rozpoznávání,   sdílení   formy;   souvisí   se   změnou,   obsahuje   konotaci   aktivity.  Informace  je  přenos  formy  z  jednoho  média  do  jiného  (komunikace  vztahů).      Shrňme  tedy  opět  jen  v  krátkosti,  že  klíčovým  bodem  je  zde  vztah  informace  a   formy,   proces   formování,   získávání   tvaru,   vyvstávání   vzoru   (pattern)   a  zároveň  proces  přenosu,  komunikace.      

                                                                                                               15  Flusser,  Vilém:  The  Shape  of  things.  A  Philosophy  of  Design,  Reaktion  Books,  London  2012    16  Na   základě   protikladu   materiální   a   formální:   přičemž   forma   tu   není   chápána   jako   něco  objevovaného  (řecké  pojetí  aletheia),  ani  fikce,  ale  model.  17  Capra,  Fritjof:  Tkáň  života.  Nová  syntéza  mysli  a  hmoty,  Academia,  Praha  2004  18  Baeyer,  Hans  Christian  von:  Information.  The  New  Language  of  Science  (2003),  Orion  Books  Ltd,  London  2004    

  11  

2.  KOMPLEXITA    James   Crutchfield,   americký   matematik   a   fyzik,   ředitel   centra   pro   vědy   o  komplexitě   (Complexity   Sciences   Center) 19  popisuje   svou   cestu   ke   studiu  komplexity   jako   spojení   dvou   symetrických   problémů: 20 prvním   byla  problematika,   která   je   tématem   teorií   deterministického   chaosu:   tj.   to,   že  jednoduché  systémy  vykazují  komplexní,   “chaotické”  chování.  Znamenalo   to,  že  velká   míra   náhodnosti,   kterou   pozorujeme   v   přirozeném   světě,   může   mít   v  pozadí   jednoduché   nelineární   dynamické   systémy.   Druhá   strana   mince   je  problematičtější:   pokud   jednoduché   systémy   spontánně   generují   zdánlivě  náhodné  chování,  proč  systémy  na  vyšší  úrovni  složené  z  mnoha  prvků  vykazují  uspořádanost?   Neboli   co   je   základem   organizace   v   chaotickém   světě?   Tato  otázka   ho   podle   jeho   vlastních   slov   přivedla   k   zkoumání   mechanismů   tvoření  tvarů  (pattern  formation)  v  prostorově  rozvitých  dynamických  systémech.      Stephen   Hawking   vyřkl   na   začátku   21.   století   proroctví,   že   nové   století   bude  věkem   komplexity.21  Nové   „paradigma   komplexity“   se   od   té   doby   objevuje   v  různých   kontextech,   nejen   v   oblasti   vědy.   Komplexita   složí   jako   nástroj   popisu  kolektivní   inteligence   mravenčích   společenství,   organizace   a   fungování   lidské  společnost,  či  buněk  organizujících  oko  či  mozek,  světové  burzy  i  internetové  sítě.  Komplexní   adaptivní   systémy   (Complex   Adaptive   System;   CAS)   jsou   takové  systémy,  které  přijímají   informace  z  okolí,   identifikují   regularity  a  kondenzují   je  do  schématu  či  modelu,  který  podléhá  zpětné  vazbě,  když  je  aplikován  na  reálný  svět   a   znovu   upraven.   Jsou   to   systémy   složené   z   velkého   množství   prvků,   bez  centrální  kontroly,  v  nichž  z  jednoduchých  pravidel  vzniká  komplexní  kolektivní  chování,  sofistikované  zpracování  informací  a  adaptace  skrze  učení  a  evoluci.    To  zároveň  znamená,  že  jsou  to  systémy  vyvíjející  se  v  čase.22      Tradičně  se  rozlišuje  několik  pramenů  vedoucích  ke  vzniku  teorie  komplexity,  o  kterých   se   alespoň   stručně   zmíníme.   Za   výchozí   bod   je   obecně   považován  postulát,  že  „celek   je  víc  než  suma  částí“  pocházející  původně  z  ekologie,  dále  studium   dynamiky   chaotických   systémů   (jehož   počátek   se   klade   do   oblasti  meteorologie   a   je   spojen   s  průkopnickou   prací   Edwarda   Lorenze   z  počátku  šedesátých   let   20.   století,   kdy   jako   první   popsal   „motýlí   efekt“,   tj.  extrémní   citlivost   na   počáteční   podmínky),   nové   poznatky   v   teorii   evoluce,                                                                                                                  19  http://csc.ucdavis.edu/Welcome.html  20  Například  zde:  http://csc.ucdavis.edu/~chaos/papers/QsOnComplexity.pdf  21  Například  zde:  http://blogs.scientificamerican.com/the-­‐curious-­‐wavefunction/2013/04/23/stephen-­‐hawkings-­‐advice-­‐for-­‐twenty-­‐first-­‐century-­‐grads-­‐embrace-­‐complexity/  22  Ve   fyzice   existují   základní   dva   typy   času:   čas   klasické   mechaniky   a   teorie   relativity   a   čas  termodynamiky:  čas,  který  má  směr.  Děje  klasické  mechaniky  nezahrnují  šipku  času,  jsou  symetrické  v  tom   smyslu,   že   jejich   začátek   a   konec   se   dají   prohodit,   jejich   procesy   jsou   reverzibilní.   Jediná  veličina,  která  ve  fyzice  vyžaduje  „šipku  času“,  je  entropie.    

  12  

systémové  teorie  (obecná  teorie  systémů  Ludwiga  von  Bertalanffy  z  roku  1968,  tektonika   (věda   o   strukturách   a   organizaci,   1912-­‐17)   Alexandra   Bogdanova,  kybernetika   Norberta   Wienera)   anebo   teorie   sítí,   z  nichž   vycházejí   další  zásadní  charakteristiky  komplexních  systémů  a  dějů.  K  tomu,  aby  se  komplexita  stala   novým   paradigmatem,   bylo   ovšem   potřeba   právě   také   teorie   informace  (tak   jak   ji   formuloval   Claude   Shannon)   a   vývoje   výpočetní   techniky   a  počítačových  simulací,  které  pro  popis  komplexních  systémů  poskytují  metody.  (Meze   redukcionismu   se   začaly   ukazovat   už   v   myšlenkovém   díle   Jamese   C.    Maxwella,  či  Henri  Poincarého:  viz  problém  tří  těles,  či  obchodního  cestujícího,  v  nichž  se  ukazuje  exponenciální  růst  složitosti.)    Za  všechny  ostatní  myslitele   zabývající   se  komplexitou   zmiňme   ještě  například  Friedricha  Hayeka,  nositele  Nobelovy  ceny  za  ekonomii,  který,   inspirován  prací  Karla   Poppera   a   Warrena   Weavera,   věnoval   většinu   svého   úsilí   studiu  komplexních  fenoménů,  přičemž  se  neomezoval  jen  na  ekonomii,  ale  zahrnul  do  svého   zkoumání   i   poznatky   z  psychologie,   biologie   a   kybernetiky.   Gregory  Bateson   nastínil   vztah   mezi   antropologií   a   systémovou   teorií,   když   popsal  kulturu  jako  ekosystém.  Podle  Stevena  Strogatze  (jeden  z  průkopníků  teorie  sítí)  byl   pro   každou   z  dekád   dvacátého   století   klíčový   pojem   začínající   na   „c“:  kybernetika   (cybernetics)   v  šedesátých   letech,   teorie   katastrof   (catastrophe  theory)   v  letech   sedmdesátých.   V  osmdesátých   letech   to   byla   teorie   chaosu  (chaos  theory)  a  v  devadesátých  komplexita   (complexity).  Na  začátku  21.   století  se  dalším  pojmem  zdá  být  konsilience  (consilience),  výsledek  snahy  o  propojení  přírodních  a  společenských  věd  v  rámci  studia  komplexity.      Definice   komplexity   je   poměrně   problematická.   Jak   definovat   složitost?   Kde   se  nachází  hranice,  za  níž  je  nějaký  systém  komplexní?  Etymologicky  lze  její  původ  vysledovat   k  latinskému   complexus   (objetí,   shrnutí)   od   slovesa   complecti  (obklopovat,   obejmout,   zahrnovat)   v   přeneseném   smyslu   zvládnout,   rozumět,   z  com-­‐   (s)   a   plectere   (tkát,   plést,   splétat,   proplétat)   a   plicare   (překládat,   skládat,  kroutit).   Základem   je   řecký   kořen   plek-­‐   (splétat).   Latinské   plectere   zároveň  souvisí   se   staroslovanským   plesti   (plést).   Komplexita   tedy   evidentně   souvisí   se  spletitostí.   To  můžeme   formulovat   také   tak,   že   u   komplexního   systému  nejde   o  počet  prvků,  ale  složitost  jejich  propojení,  hustotu  sítě.      Definovat   míru   komplexity   je   ale   skutečně   problém.   Zde   jen   stručný   přehled  několika   základních   řešení:   Míra   komplexity   se   může   měřit   pomocí:   velikosti  systému   (toto  měřítko   evidentně   nevyhovuje,   velikost   systému   a   jeho   složitost  nejsou   přímo   úměrné),   entropie   (musí   ale   jít   v   nějakém   smyslu   o   zprávu   a  problémem   zůstává,   že   nejvyšší   hodnotu   má   náhodný   systém).   Můžeme   také  měřit   algoritmický   informační   obsah.   Musíme   si   ale   dávat   pozor,   protože  algoritmická   složitost   souvisí   s   „teorií   složitosti“,   což   není   „naše“   teorie  komplexity,   ale  matematický   obor,   v  němž   se   podle   úrovně   složitosti   klasifikují  

  13  

výpočetní  systémy.  Nicméně  toto  měřítko  funguje  obdobně,  jen  se  navíc  rozlišuje  algoritmická   komplexita   (délka   nejkratšího   programu   popisujícího   objekt)   a  efektivní  komplexita.   (Efektivní  komplexitu  popsal   již   jeden  z  průkopníku  vize  komplexity  Murray  Gell-­‐Mann,  mimojiné  nositel  Nobelovy  ceny  za  objev  kvarku:  „Chceme-­‐li  se  vyhnout  technickému  jazyku,  můžeme  definovat  efektivní  komplexitu  nějaké   entity   jako   délku   vysoce   komprimovaného   popisu   jejich   pravidelností.   Pro  techničtější  definici  potřebujeme  formální  přístup  jak  k  pojmu  minima  deskriptivní  délky,   tak   rozdílu   mezi   pravidelnostmi   (regularitami)   a   těmi   rysy,     s  nimiž   je  zacházeno   jako   s  náhodnými   či   nahodilými.“23)   Jde,   stručně   řečeno,   o   pokus,   jak  oddělit   komplexitu   a   náhodnost.   Tento   typ   komplexity   je   také   nazýván  Kolmogorova-­‐Chaitinova   komplexita.   Dalším   měřítkem   může   být   logická  hloubka   (Charles   H.   Bennett),   která   určuje,   jak   těžké   je   objekt   sestrojit,   anebo  třeba   termodynamická   hloubka   (Seth   Lloyd;   sekvence   událostí   vedoucí   k  objektu,   zdroje   vyžadované   ke   konstrukci),   výpočetní   kapacita   (Stephen  Wolfram),   statistická   komplexita   (James   P.   Crutchfield;   minimum   informace  nutné   k   předpovědi   budoucnosti   systému),   fraktální   dimenze   či   stupeň  hierarchie  (Herbert  A.  Simon;  soběpodobné  vzory  na  všech  úrovních).                                              

                                                                                                               23  In  nontechnical  language,  we  can  define  the  effective  complexity  (EC)  of  an  entity  as  the  length  of  a  highly  compressed  description  of  its  regularities.  For  a  more  technical  definition,  we  need  a  formal  approach  both  to  the  notion  of  minimum  description  length  and  to  the  distinction  between  regularities  and  those  features  that  are  treated  as  random  or  incidental.  (Murray  Gell-­‐Mann:  The  Quark  and  the  Jaguar)  

  14  

ČÁST  II    

4.  Ústav  komplexních  systémů      Studium  komplexních  systémů  z  hlediska  informační  vědy  je  typ  výzkumu,  který  je   prováděn   v   Ústavu   komplexních   systémů24,   součásti   Jihočeské   univerzity,  sídlící  v  Nových  Hradech.      Pojem  Point  information  gain  (PIG)  je  originálním  přínosem  této  problematice.25  Informační   přínos   je   zde   analyzován   jako   informace   přidaná   bodem   k   celkové  informaci   obrazu.   Tato   metoda   byla   původně   využívána   při   analýze  mikroskopických   obrazů   živých   buněk,   ale   může   být   principiálně   využita   při  zkoumání   jakéhokoliv   experimentálního   strukturovaného   souboru   dat   –   čehož  jsme  využili  v  této  práci  a  aplikovali  jej  při  analýze  uměleckých  děl.    Záměrem  analýzy  je  získat  maximální  množství  informace  v  minimálním  čase  (v  biologii   jde   o   buněčné   tkáně   zkoumané   pod   mikroskopem,   jejichž   životnost   je  přirozeně   limitovaná).   Proces   přenosu   informace   (o   buňce   skrz   mikroskop)   je  analyzován   v   pojmech   klasického   Shannonova   schématu   přenosu   informace,  zdrojem   informace   je   biologický   objekt,   kanálem   je  mikroskop,   příjemce  model  biologického  systému.  Získáváme  tedy  informační  reflexi  (biologického)  objektu.    Jakékoliv  čisté  (clear-­‐cut)  analýzy  může  být  dosaženo  jedině  v  případě  existence  izolovaných  bodů.  Vztah  k  reálnému  případu  (např.  vnitřku  živých  buněk),  kde  nacházíme  směs  transparentních  oblastí  se  signifikantně  rozdílnou  refraktivitou,  je  analytickým  přístupem  nerozlišitelná.  Diskutujeme  o  možnosti  nekalibrujícího  (calibration-­‐free)   přístupu,   globálního   pozorování   detekovatelných   (zde  intracelulárních)  součástí  a  jejich  dynamiky.  Problémem  v  tak  složitém  prostředí  je   způsob,   jakým  definovat  nejlepší   rozlišení  v  destinaci.   Jinými   slovy,  nemáme  čistou  definici  modelu  zdroje  informace  –  destinace.  K  rozvoji  metody  nahradíme  objektivní   rozlišení   informace  názorem  operátorů   (operators  opinion).  On  nebo  ona  musí  rozhodnout,  co   je  pozorovatelným  objektem,   jak  dlouho  trvá,   jestli  se  rozpíná,   nebo   smršťuje.   Ve   shodě   se   Shannonovým   schématem   pokládáme  pozorovatele  za  zdroj  informace  (který  rozděluje  běžné  a  vzácné  body).        

   

                                                                                                               24  Oficiální  stránky  zde:  http://www.frov.jcu.cz/cs/sks-­‐frov-­‐ju/skola-­‐komkplexnich-­‐systemu  25  Viz  například  článek:  Point  Information  Gain,  Point  Information  Gain  Entroy  and  Point  Divergence  Gain:  measures  of  information  in  a  structured  dataset,  Dalibor  Štys,  Petr  Jizba,  jan  Urban,  Tomáš  Náhlík,  Dalibor  K.  Štys  

  15  

5.  Definice  základních  pojmů  teorie  dynamických  systému  a  pojmů  PIG  (Point  Information  Gain),  PDG  (Point  Divergetion  Gain),  PIE  (Point  Information  Entropy)  a  PIED  (Point  Information  Entropy  Density)      Dynamický   systém:   Dynamický   systém   se   vyvíjí   v   čase.   Tento   vývoj  může   být  graficky  znázorněn  ve  fázovém  prostoru.  Body  ve  fázovém  prostoru  reprezentují  stavy   systému.   Změna   stavu,   tedy   vývoj   systému   je   představována   pohybem  bodu.  Křivka,  po  které  se  bod  pohybuje,  se  nazývá  trajektorie.  Pokud  trajektorie  vytváří  určitou  strukturu,  jde  o  atraktor.    (Mnoho   dynamických   stavových   prostorů   je   chemických   –   fyzický   extent   je   jen  konsekvence.   PIG   odráží   optický   signál   –   tedy   chemické   vlastnosti   originální  struktury,  vizuální  inteligibilitu  struktur.)    Atraktor:  Atraktor  v  teorii  dynamických  systémů  je  nástrojem  pro  popis  chování  chaotického  systému  v  prostoru  a  čase.  Atraktor  je  podivný,  pokud  má  pozitivní  Ljapunovův  exponent  (tedy  je  citlivý  na  počáteční  podmínky)  a  fraktální  dimenzi  (která  určuje  míru  jeho  složitosti).      Z   pohledu   rovnovážné   termodynamiky   je   pokus   charakterizovat   složitý   objekt  jedním   konstituentem   beznadějný.   U   nerovnovážně   dynamických   systémů   je  stavový   prostor   rozdělen   do   oblastí   přitažlivosti   individuálních   dynamických  rysů,   atraktorů.   Ty   jsou   různých   druhů,   limitní   cykly,   chaotické,   podivné   atd.  Chování  systému  je  analyzovatelné  jako  symbolická  trajektorie.      Podivný  atraktor:  Podivný  atraktor  je  atraktor  s  fraktální  dimenzí.  Není  limitní,  ani  cyklický,  je  to  složitý  útvar.  První  podivný  atraktor,  který  objevil  meteorolog  E.  Lorenz,  je  znám  jako  Lorenzův  atraktor.    Deterministický   chaos:   Deterministický   chaos   byl   předmětem   studia   od  šedesátých   let  20.  století.  Nejde  o  chaos  ve  smyslu  absolutní  neuspořádanosti  či  nepoznatelnosti.   Chaotické   systémy   nejsou   absolutně   chaotické,   ani  deterministické,   tedy   plně   předvídatelné.   Jsou   extrémně   citlivé   na   počáteční  podmínky   (tzv.  Efekt  motýlích  křídel),   což  znemožňuje  dlouhodobé  předpovědi,  nicméně  jejich  komplexní  chování  se  řídí  poměrně  jednoduchými  pravidly.      Ljapunovův   exponent/Ljapunovova   stabilita   (samoorganizujících   se  systémů):  určuje  míru  závislosti  na  počátečních  podmínkách,  tedy  míru,  v  níž   je  systém   chaotický.   Rovnovážný   stav   je   Ljapnunovsky   stabilní,   pokud   se   po  vychýlení   příliš   nevzdálí   od   rovnovážného   stavu   (nemusí   ale   být   přímo   v  rovnovážném  stavu).      

  16  

Fraktální  dimenze:  Fraktální  dimenze  určuje  míru  nepravidelnosti  útvaru.  Útvar  je   fraktálem,   pokud   je   jeho   Hausdorffova   dimenze   (ostře)   větší   než   jeho  topologická   dimenze.   Termín   fraktál   poprvé   použil   Benoit   Mandelbrot   v   roce  1975,  aby  popsal  výsledky  své  dlouholeté  práce.  Kořenem  slova  fraktál  je  latinské  fractus,   rozbitý.   Mandelbrot   navazoval   na   v   té   době   již   známé   útvary   jako   je  Kochova  křivka  či  Juliovy  množiny.      Teorie   multifraktálů:   kvantitativně   popisuje   širokou   škálu   komplexních  struktur   zahrnujících  mnoho   nelineárních   dynamických   systémů   (spolu   s   jejich  atraktory).   Na   rozdíl   od   obyčejných   fraktálů,   jejichž   struktura   je   specifikována  jediným  škálovacím  exponentem  –  fraktální  dimenzí  –  nemají  multifraktály  jeden,  ale  nekonečně  mnoho  škálovacích  exponentů,  které  je  popisují.      Rényiho   informace   a  multifraktalita   objektů:   máme   dva   kvalitativně   odlišné  typy   škálování:   první   je   vztažený   k   distibucím   kvantit   jako   je   hustota   náboje,  koncentrace   hmoty,   intenzita   barvy,   druhý   koresponduje   s   fraktální   dimenzí  oblasti,  která  má  stejnou  hodnotu  –  umožňuje  tak  kvalitativní  popis  komplexních  jevů.  Výpočet  multifraktálního   spektra   chaotického  atraktoru   se  provádí   tak,   že  rozdělíme   prostor   do   čtverců   a   v   každém   změříme   pravděpodobnost   výskytu  trajektorie  v  každé  daném  bodě.    Samoorganizace:   je   proces,   ve   kterém   globální   uspořádanost   povstává  (emerguje)  z  lokálních  interakcí  prvků  původně  neuspořádaného  systému.  Jde  o  spontánní   proces,   který   nastává   při   dosažení   jisté   úrovně   komplexity,   bývá  spouštěn   náhodnými   fluktuacemi   a   posilován   pozitivní   zpětnou   vazbou.  Vyskytuje   se   u   fyzikálních,   chemických,   sociálních   i   kognitivních   systémů  (klasickými  příklady  jsou  krystalizace  či  konvekce,  organizace  rojů,  či  neuronové  sítě.)   Koncept   samoorganizace   se   objevil   v   souvislosti   s   kybernetikou   a  systémovými   teoriemi   v   padesátých   a   šedesátých   letech   20.   století.   V   té   době  působila  kybernetika  a  systémové  myšlení  na  všechny  oblasti  vědy  a  výzkumu  i  techniku   a   managenement.   Metody   se   ovšem   ukazovaly   jako   nedostatečné   –  stručně   řečeno   stále   byly   k   dispozici   jen   lineární   rovnice   k   popisu   nelineární  dynamiky  živých  systémů.  Kybernetici  se  začali  zaměřovat  na  nelineární  jevy.26      Disipativní  struktury:  Ilya  Prigogine,  přední  odborník  v  oblasti  samoorganizace  definoval  disipativní  systémy,  které  mají  schopnost  udržovat  své  životní  procesy  

                                                                                                               26  Zajímavě  tento  vývoj  mapuje  například  N.  Katherine  Hayles  v  knize  How  We  Became  Posthuman.  Virtual   Bodies   in   Cybernetics,   Literature   and   Informatics,   tHe   University   of   Chicago   Press,   1999  (Vychází  z  vývoje  zachyceném  v  průběhu  Macy  konferencí  (1946-­‐53):  Jen  stručně:  McCulloch-­‐Pitts,  Ashby,  Foerster:  K  nalezení  prahu  “vzestupu  uspořádanosti”  využili  Shannonovy  “redundance”   jako  míry   relativní   uspořádanosti   daného   systému   vůči   pozadí   s   maximální   neuspořádaností,   což  umožnilo  vytvořit  raný  model  samoorganizace  (tzv.  “pořádek  ze  šumu”).)  

  17  

za   podmínek   nerovnováhy.   Ukázal   tak   souvislost   vzdálenosti   od   rovnováhy,  nelinearitou  a  vznikem  komplexity.27      Příklady:   Tzv.  Bělousovo-­‐Žabotínského   reakce   je   emblematickým   příkladem  samoorganizujícího   se   systému   a   vytváření   vzorů   (patterns).   Samoorganizace  simulovaná:   Důležité   a   vlivné   potvrzení   přirozené   komplexity   vycházející   z  jednoduchých  pravidel  představují  celulární   automaty,  v  nichž   je  komplexního  chování  (a  vyvíjejících  se  tvarů)  dosaženo  pomocí  velmi  jednoduchých  pravidel  a  mnoha  iterací.    Softwarové   nástroje:   Analýza   hlavních   komponent   (Principal   Component  Analysis,  PCA)  je  statistická  multivariantní  metoda  analýzy  dat.  Princip  vychází  z  tzv.   selekce   a   extrakce   příznaků.   Předpokládejme,   že   analyzujeme   soubor   dat,  kterým   lze   přiřadit   souřadnice   v   obecně   vícerozměrném   prostoru.   Souřadnice  takového   prostoru   jsou   určeny   proměnnými,   které   popisují   soubor   dat.   PCA   se  snaží   najít   nový   souřadný   systém   toho   samého   prostoru,   ovšem   tak,   aby   nové  souřadnice   jednak   byly   lineárními   kombinacemi   souřadnic   starých,   ale  především   aby   nové   osy   byly   ve   směru   maximální   variance   souboru   dat.   Tím  většinou   dochází   i   ke   snížení   dimenzionality   problému,   protože   u   souboru   dat,  který  vytváří  shluky  (třídy,  skupiny)  v  souřadném  prostoru,  lze  většinu  variance  popsat  několika  málo  principálními  komponentami  (principální  komponenty  jsou  ony  nové  souřadné  osy),  často  prvními  dvěmi  či  třemi.  (Původní  data  je  potřeba  před  výpočtem  standardizovat  na  jednotkovou  směrodatnou  odchylku.)    Regresní   analýza   je   označení   statistických   metod,   pomocí   nichž   odhadujeme  hodnotu   jisté   náhodné   veličiny   (závislá,   cílová,   vysvětlovaná   proměnná,)   na  základě   znalosti   jiných   veličin   (nezávisle   proměnných,   kovariát   anebo  vysvětlujících  proměnných).    Modul   PLS   regrese   (PLSR)   poskytuje   uživateli   jeden   z   nejvýkonnějších  výpočetních   nástrojů   pro   vyhodnocování   dvojice   vícerozměrných   proměnných,  mezi   nimiž   se   předpokládá   možná   lineární   závislost.   Tato   výpočetně   náročná  metodika  umožňuje  vysvětlovat  a  predikovat  jednu  skupinu  proměnných  pomocí  jiné  skupiny  proměnných.    Existují  dvě  různé  metody  analýzy  obrazu:  z  celého  obrazu,  from  whole  (WI)  a  nebo  z  kříže,  cross  (C):  rozdíl  je  v  tom,  že  počítáme  četnost  výskytu  každé  úrovně  intenzity  v  obraze   (WI)  či  na  ramenou  kříže   (zkoumaný  bod   je  ve  středu  kříže)  (C)   –   vždy   s   a   bez   zkoumaného   bodu.   Výskyt   je   potom   použit   jako  pravděpodobnost  ve  výpočtu  Rényiho  entropie.  Typ  entropie,  který  využíváme,  je                                                                                                                  27  Na   Prigogina   navázali,   anebo   formulovali   příbuzné   teorie:   Lynn   Margulis   (endosymbióza),  Maturana  a  Varela  (autopoiesis),  Nicolis    

  18  

Rényiho   entropie   (a   informace),   která   je   vhodná   pro   multifraktální   systémy   a  popis  chaotických  atraktorů.  C  dává  strukturovanější  výsledky  –  relativní  přínos  bodu  celkové  distribuci  závisí  na  množství  bodů  –  počet  bodů  na  rameni  kříže  je  o  řád   nižší   než   u   WI.   PIG   bodu   v   případě   výpočtu   využívajícího   lokální   definici  výskytu   intenzit   je   vyšší   (a   vliv   různých   rozlišení   není   tak   velký).   Je   zde   ale  fundamentálnější   rozdíl   mezi   čistě   sémantickou   (WI)   a   částečně   syntaktickou  informací   (C)   (pro  plně  syntaktickou   informaci  bychom  potřebovali  znát  vlastní  definici  lokálního  kontextu,  tj.  funkční  hierarchii  prvků  obrazu).    Sémantická   a   syntaktická   informace:   Cross   analýza   nám   dává   syntaktickou  informaci,  tedy  informaci  včetně  vztahu  bodu  k  okolí,  zatímco  whole  sémantickou  informaci.   Čistě   sémantická   informace   určuje   kontribuci   informačního   prvku   k  objemu  struktury.  Určuje  rozložení,  ale  ne  v  závislosti  na  umístění  v  prostoru,  je  to   jen   poměr   (barevných)   intenzit.   Syntaktická   je   přesnější,   protože   neříká   jen,  jaká  je  (hodnota),  ale  i  kde  je  –  cross  analýza  vybírá  ze  souboru  jen  vybrané  části  okolí   strukturovaným   způsobem,   tj.   ve   vybraném   směru.   Zároveň   nicméně  vyhledává   kontext   naslepo.   Plně   syntaktický   přístup   by   byl   umožněn   určením  funkčně  relevantního  kontextu  (určení  hlavních  směrů  a  vzdáleností).    Point  Information  Gain,  dále  jen  PIG,  byl  původně  definován  pro  potřeby  práce  s  biologickým  materiálem,   tedy   primárně   pro   analýzu   snímků   buněčných   tkání   z  mikroskopu,   ale   principiálně   je   použitelný   pro   analýzu  mnoha   strukturovaných  souborů   dat.   Je   analogický   s   přenosovou   entropií   či   divergencí   a   používá   se   k  určení   informačního   přínosu   experimentálního   bodu   v   multidimenzionálním  experimentálním   prostoru.   PIG   je   mírou   kontribuce   daného   bodu   celkové  informaci,  kterou  můžeme  získat  z  objektu.  Pojem  je  založen  na  předpokladu,  že  pozorovatelná   multifraktalita   přirozených   (přírodních)   objektů   je   reflexí  struktury  vnitřních  atraktorů.  PIG  identifikuje  skupiny  datových  bodů  se  stejnými  vlastnostmi.    PDG  (Point  Divergence  Gain)  se  využívá  se  ke  srovnání  dvou  experimentů.  Dá  se  aplikovat  na   informaci   ve   formě  obrazu   či   3D  objektu.   PIE   a  PIED,  neboli   Point  Information   Entropy   a   Point   Information   Entropy   Density   jsou   jedinečné  charakteristiky  objektu.28      I   když   definice   PIG   v   kontextu   daného   multidimenzionálního   setu   může   být  přímočará,  jeho  vztah  k  dokonce  zdánlivě  jednoduchému  konkrétnímu  fyzickému  fenoménu  představovaného  souborem  dat  může  být  komplikovaný.  Jinými  slovy,  původ   distribuce   a   přínosu   (kontribuce)   individuálního   prvku   odráží   jak  originální   objekt,   tak   všechny   experimentální   kroky   k   jeho   reprezentaci   v  

                                                                                                               28  Viz  Jizba,  či  Kullback-­‐Leibler  

  19  

souboru   dat.   Takto   můžeme   chápat   PIG   jako   nejvíce   nestrannou,   objektivní  reprezentaci  experimentu  a  jeho  výsledků.      PIG   může   být   kalibrováno   výběrem   hodnoty   parametru   alfa.   Výběrem   alfa  parametru   vlastně   vybíráme   (či   anticipujeme)   jistou   očekávanou   alfa-­‐deformovanou  distribuci.  Obraz,  jehož  distribuce  je  jedna  z  “čistých”,    dá  hladkou  křivku   se   stejně   rozdělenými   datovými   body   (pro   alfa=1   použijeme   standartní  Shannonovu  entropii).    (Jedním   z   cílů   našeho   projektu   bude   je   kalibrovat,   tj.   zmapovat   nejvlastnější  spektrum   koeficientů   alfa   potřebných   ke   zmapování   vnímání   daného   lidského  vzorku  a  přiřazení  k  odpovídající  statistické  projekci  hodnot  získaných  analýzou  obrazového  vzorku.  Informace,  kterou  získáme,   je  statistický  průměr  kokrétních  výběrů  porovnaný  s  mechanickým  výběrem  pováděným  počítačem.  Informace  je  poměrem  běžných  a  vzácných,  singulárních  bodů:  to,  které  z  nich  jsou  singulární,  je  dáno  právě  těmito  výběry.)      Experiment   jako   zdroj   informace:  Obvykle   předpokládáme,   že   obsah   obrazu  věrně  odráží  originální  objekt.  Ve  skutečnosti  vnáší  médium  své  optické  systémy.  (Interakce  světla    a  pozorovaného  objektu  je  často  kombinace  absorbce,  difrakce  a   refrakce.)   A   nesmíme   opomenout   roli   pozorovatele,   který   je   součástí  (pozorovaného)   systému.   (To,   o   co   se   zde  pokoušíme,   je   vlastně   fenomenologie  vědy,  v  jejímž  rámci  je  experiment  chápán  jako  informační  kanál.)        

6.  Kupkova  geometrie  myšlení    Pro   náš   výzkum  a   aplikaci  metody  PIG   na   jiná   než   biologická   data   jsme   zvolili  dílo   českého   malíře   Františka   Kupky   (1871-­‐1957),   konkrétně   42   černobílých  kreseb,  z  nichž  bylo  35  studií  k  cyklu  Čtyři  příběhy  bílé  a  černé  (asi  1925,  cyklus  byl   vydán   v   roce   1926),   dále   Promenáda   bílé   čáry   (1919-­‐21),   studie   k   obrazu  Kosmické   jaro   (1911-­‐20),   studie   Vertikálních   a   diagonálních   plánů   (1920-­‐21),  studie  k  Mluvě  vertikál  (1920-­‐21),  studie  k  obrazu  Zakřivené  plány  (1926),  studie  k  obrazu  Okolo  bodu  (1911-­‐30)  a  studie  ke  Dvěma  modrým  (1950).      František  Kupka  studoval  v  na  Akademii  výtvarného  umění  v  Praze  a  ve  Vídni,  ale   uzavřeným   světem   akademií   poměrně   otevřeně   pohrdnul   a   později   se  přesunul  do  Francie,  dlouho  pobýval  v  Paříži,  živil  se   ilustrováním,  přátelil  se  s  mnoha  umělci,  studoval  na  Sorbonně  přírodní  vědy,  fyziku,  biologii  a  fyziologii  a  díky  mikroskopu   se  mu  otevřel   svět  mikrokosmu.   Poslední   léta   života   prožil   v  Puteaux,  odkud  měl  blízko  jak  do  Paříže,  tak  k  přírodě.      

  20  

V   roce   2012   uběhlo   sto   let   od   prvního   veřejného   vystvavení   Amorfy   –  Dvoubarevné  fugy  na  pařížském  Podzimním  salonu.  Rok  1912,  který  bývá  uváděn  jako   rok   zrodu   abstraktního   malířství   a   byl   také   rokem   Kupkova   uměleckého  obratu,   také   připomněla   pražská   výstava   Cesta   k   Amorfě   pořádaná   Národní  galerií   v   Salmovském   paláci,   na   níž   byla   vystavena   Kupkova   díla,   která   byla  prezentována  v  rámci  pařížských  salonů  v  letech  1910  –  1913.29      V  roce  2012  také  vyšla  kniha  Geometrie  myšlenek30,  v  níž  se  znalec  Kupkova  díla  Karel   Srp   zaměřuje   na   Kupkovu   cestu   k   abstrakci   (to   je   ostatně   nosné   téma  veškerých   kupkovských   studií),   tj.   jeho   specifický   typ   syntézy   geometrie   a  přírodní  dynamiky.      Kupka   se,   podobně   jako   většina   předních   umělců   počátku   20.   století,   zabýval  vývojem  abstraktních  motivů  –  ale  neuchyloval  se  k  takové  systematičnosti,  aby  vytvářel   gramatiku   abstraktních   forem   jako   třeba   příslušníci   hnutí   Bauhaus,   i  když  také  promýšlel  dynamiku  základních  (výtvarných)  tvarů.    Kupka,  na  rozdíl  od  např.  Kandinského,  ukázal  (například  na  Čtyřech  příbězích  bílé  a  černé,  které  označoval   jako   “scénář   mutací   různých   forem”),   že   lze   myslet   abstraktně   a  “přitom  se  nezříkat  děje,  času  a  pohybu”.  (Srp,  16)    Jak  píše  Karel  Srp:  “Kupka  se  zmiňoval  o  propojení  zákonitého  vnímání  a  vnitřní  struktury   zobrazení,   ve   kterém   geometrické   tvary   hrály   jen   roli   prostředníka.”  (Srp,   187)   a   dodával,   že   nejde   o   tvarovou   (Gestalt)   psychologii,   jakkoli   je   její  hledisko  přínosné  –  jde  o  ontologii  tvarů.      Kupka   nestál   ani   na   straně   realismu,   protože,   jak   zjistil,   přírodu   a   skutečnost  nelze   nikdy   vystihnout   dostatečně   věrně,   a   už   vůbec   ne   na   straně   iluze   a  naturalistického   napodobení,   které   považoval   na   lež.   Odmítal   jakékoliv  napodobení,   a   to   především   od   roku   1912,   kdy   došlo   ke   zlomu   v   jeho   tvorbě.  Záchranu  obrazu  podle  Kupky  představovala  geometrie,  ale  ne  například  tak,  jak  se  jí  chopili  kubisté  (“pykající  za  zločiny  na  přírodě  a  zdravém  rozumu”).  Kupka  se  snažil  zachytit   “principy   tvoření”,  a   to  konkrétně  například  právě  ve  Čtyřech  příbězích   bílé   a   černé,   o   kterých   sám   napsal:   “Chci   hlavně   touto   sérií   dokázat  možnosti   tvoření   v   pravém   slova   smyslu...”   (Srp,   179   –   z   dopisu   Waldesovi,  1926).      Jak   píše   Srp   o   Kupkově   díle   a   specifickém   chápání   geometrie:   “Prostor   byl  vtěsnán  do  plochy.”  a  “Řídil  se  souřadnicemi  nevyplývajícími  ze  stupně  osvojení  si   předlohy,   ale   z   nadčasové   oblasti.”   Kupka,   který   celý   život   studoval   řeckou  

                                                                                                               29  http://www.cestakamorfe.cz/  30  Srp,  Karel:  František  Kupka.  Geometrie  myšlenek,  Arbor  Vitae,  Praha  2012    

  21  

filosofii,  zejména  Platóna,  se  pravděpodobně  odkazoval  na  platónskou  “říši  idejí”,  nicméně   tato   oblast   nadčasových   principů,   idejí,   jejichž   napodobením   jsou  všechny  pomíjivé  věci,  může  být  chápána  jako  “prostor  možností  určující  podobu  konečných   procesů   a   objektů”,   “intenzivní   prostor”,   tak   jak   ho   popisuje  francouzský   filosof   Gilles   Deleuze 31  a   Manuel   DeLanda,   který   Deleuze  interpretuje  a  uvádí  jeho  dílo  do  vztahu  k  současné  vědě.        “Zákonitosti  zde  určuje  vnitřní  malířský  proces.”  (Srp,  186)  a  Kupka  analyzující    A.   Watteaua:   “Snažil   se   zachytit   jakýsi   zákon   samotného   mechanismu   svého  vidinového   světa.”   Kupka   mluví   o   “kostře   vztahů”,   zmiňuje   “propojení  zákonitého  vnímání  a  vnitřní  struktury  zobrazení,  ve  kterém  geometrické  tvary  hrály  jen  roli  prostředníka”,  malířskou  práci  popisuje  jako  hledání  morfologické  sestavy,   která   “drží”.   Ve   všech   těchto   pokusech   popsat   to,   co   leží   v   základu  malířské  práce,  jde  o  zachycení  zákonitostí,  mechanismů,  dynamiky  skutečnosti,  která  je  zároveň  vnější  i  vnitřní,  která  je  natolik  abstraktní,  že  může  být  popisem  mnoha,  ne-­‐li  všech,  úrovní  skutečnosti.      Z  dopisu  Waldesovi  (16.7.1921):  “Čerpání  formálních  korelací  se  může  díti  právě  tak   dobře   pod   mikroskopem   jako   před   mrakoškraby   newyorskými   nebo   ve  hvězdárně.”    

7.  Popis  analýzy      Získali   jsme  reprodukce  z  Muzea  Kampa,  které  vlastní  významnou  část  Kupkova  díla,   a   v   rámci   konference   MutaMorphosis   (6.   –   8.   12.   2012   v   Praze)32  jsme  náhodnému  vzorku  lidí,  který  ovšem  nebyl  úplně  náhodný,  protože  se   jednalo  o  odborníky   a   studenty   alespoň   s   minimálním   zájmem   o   oblast   umění,   dokonce  spíše  o  průnik  oblasti  vědy  a  umění,  předložili  42  kartiček  s  reprodukcemi  těchto  černobílých   kreseb   a   požádali   je,   aby   je   rozdělili   do   pěti   skupin   podle   vizuální  podobnosti,   tedy   podle   toho,   jak   cítí,   že   patří   k   sobě.   Neurčili   jsme   žádné   další  parametry   výběru   –   jestli   se   mají   řídit   tvary,   stylem   kresby,   námětem.   Ve  skupinách  mohl  být  libovolný  počet  obrázků.    PIG/PIE  byl  v  tomto  výzkumu  poprvé  využit  k  analýze  uměleckých  děl.  Pracovně  jsme  projekt  nazvali  Projection  of  creator’s  mind  attractors  into  artifact  (Projekce  atraktorů   z   mysli   tvůrce   do   artefaktu).   Vycházeli   jsme   z   toho,   že   PIG/PIE   je  vlastně   mírou   informace   obsažené   v   jakémkoliv   strukturovaném   souboru   dat.  Koncept  je  založen  na  předpokladu,  že  pozorovatelná  multifraktalita  přirozených  objektů   je   reflexí   struktury   vnitřních   atraktorů,   jejímž   odrazem   je   dynamická  

                                                                                                               31  Například  v  knize  Tisíc  plošin  (Herrmann&synové,  2011).  DeLanda  viz  závěr.  32  http://mutamorphosis.org/2012/    

  22  

strukturace   pozorovatelných   stabilních   objektů.   Pomocí   PIG/PIE   měříme   stav  multifraktálního   objektu   jako   projekci   generalizované   dimenze   spektrální  komponenty  objektu   v   daném   bodě   v  multidimenzionálním   stavovém   prostoru  do  dvoudimenzionální  roviny  obrazu.      Vycházíme  z   toho,   že  máme  samoorganizující   se,  komplexní   realitu,   jejíž  vnitřní  dynamika  je  řízena  několika  (podivnými)  atraktory  a  my  ji  vnímáme  na  povrchu,  její   “projekci”.    Za  prvé  předpokládáme,  že  samotný  obraz   je  odrazem  atraktorů  definujících  stav  umělcova  mozku  (lépe  řečeno  celku  kognitivního  systému)  a  za  druhé   chceme   popsat   proces   vnímání   uměleckého   díla   jako   odraz   Ljapunovova  stabilního   objektu   –   lidského  mozku   v   daném   stavu   –   v   interakci   s   vnímaným  obrazem   objektu.   Navíc   předpokládáme,   že   mozek   je   kalibrovaný,   aby  rozpoznával   evolučně   důležité   odlišnosti   (což   se   bude   odrážet   i   v   estetických  preferencích).    Jen   jeden   komplexní   samoorganizující   se   systém   může   vnímat   jiný   (může  nacházet   analogie).   Murray   Gell-­‐Mann,   laureát   Nobelovy   ceny   a   jeden   z  průkopníků   teorie   komplexity,   to   nazývá   kompozitní   komplexní   adaptivní  systémy  (composite  complex  adaptive  systems).    Vzorky   použijeme   jako   vstupní   data   PLSR,   najdeme   regresní   koeficienty,   které  budou   v   podstatě   určovat,   jak   je   která   hodnota   alfa   z   Rényiho   entropie  zodpovědná   za   vysvětlení   rozdělení.   Předpokladem   je,   že   každý   pozorovatel  rozdělil   obrázky   jinak,   ale   měly   by   existovat   některé   dimenze,   které   jsou  zodpovědné  za  nějaký  obecný  “rys”  rozdělování,  tj.  které  se  vyskytují  u  všech.      PLS   regrese   je   založena   na   regresní   analýze,   v   podstatě   hledá   takovou   lineární  kombinaci   souřadného   prostoru,   která   nejvíce   odpovídá   (předpovídá)   nějaký  vektor   očekávání   (například   danou   skupinu   tříd   souboru   dat).   Hledání   této  lineární  kombinace  probíhá  opět  s  využitím  principálních  komponent.  Výstupem  tedy   je   jak   nový   souřadný   prostor,   tak   regresní   koeficienty   –   váhy   souřadného  systému  pro  předpověď  vektoru  očekávání  (čím  větší  číslo  v  absolutní  hodnotě,  tím  je  původní  souřadná  osa  významnější  pro  regresi).    V   našem   případě   jsou   proměnnými,   tedy   koeficienty   souřadného   systému,  hodnoty   parametru   alfa   z   Rényiho   entropie   a   data   jsou   pozice   jednotlivých  obrazů   v   souřadném   systému   daném   hodnotami   Rényiho   entropie   pro   daný  obraz  a  jednotlivé  alfa  parametry.    Osoby  třídící  obrázky  se  snažily  rozdělit  obrazy  do  skupin  (tříd)  a  to  je  náš  vektor  očekávání   (od   každého   člověka   jeden).   Provedeme   PLSR,   kde   data   jsou   alfa  souřadnice   obrazů   a   vektor   očekávání   je   roztřídění   do   skupin.   Získáme  principální   komponenty,   přičemž   už   z  předběžného   náhledu   víme,   že   první  

  23  

popisovala   asi   99%   variance   (zároveň   tak   zjišťujeme,   která   alfa   byla  (kvantitativně)  důležitá  při  rozdělovaní  do  skupin).  33    Bohužel  maximalizace   variance  může   být   citlivá   na   šum   (v   tomto   případě   tedy  náhodu   při   rozhodování   o   zařazení   do   skupin)   a   tzv.   outliery,   tedy   zvláštnosti,  chyby,   neboli   pozorování,   která   jsou   příliš   daleko   od   zbytku   dat.   Určuje   se   to  exaktně   poměrně   složitě,   je   potřeba   provést   tzv.   křížovou   korelaci,   kdy   se  úmyslně   jeden   či   více   souborů   dat   přeřadí   jinam,   a   sleduje   se,   jak   tahle   malá  chyba   na   vstupu   ovlivní   výsledek.   Kromě   toho   se   dělá   v   křížové   korelaci   ještě  promíchání   pořadí   skupin,   rozdělení   skupin   do   podskupin   a   podobné   časově   a  výpočetně   náročné   pokusy.   Obecně   jsou   regresní   koeficienty   robustnější   (tedy  méně   ovlivnitelné)   než   samotné   principální   komponenty.   Jde   o   to,   že   malou  změnou   dat   se   změní   variance,   a   tudíž   nový   souřadný   systém   (principálních  komponent)  je  v  prostoru  o  něco  pootočen.    Jakmile   určíme  podmnožinu   robustních   regresních   koeficientů,   bude  moci   začít  porovnávat   tyto   regresní   koeficienty   od   jednotlivých   pozorovatelů  mezi   sebou.  Na   to   existuje   celá   řada   nástrojů,   kterým   se   říká   vektorové   metriky   a   měří  vzdálenosti  vektorů  od  sebe  (něco   jako  euklidovské  vzdálenosti).  Těchto  metrik  je  celá  řada  a  každá  se  dá  různě  interpretovat.  Co  budeme  hledat,  budou  shodné  rysy   (podobnost)   regresních   koeficientů,   cosi   jako   vzor   (ve   skutečnosti  hyperplochu34)  který  bude  určovat  hodnoty  parametru  alfa,  které  jsou  shodné  ve  významnosti  pro  většinu  regresních  koeficientů.  V  průběhu  analýzy  se  rozhodne,  která   metrika   bude   nejvhodnější.   (Ukazuje   se,   že   často   je   řešení   z  oblasti  topologie.  Mimochodem  jedna  z  možných   interpretací  parametru  alfa  z  Rényiho  entropie  je  ta,  že  jde  o  topologickou  vzdálenost  v  prostoru  distribučních  funkcí.)    Na  závěr  ještě  uděláme  náhodné  roztřídění  do  skupin  počítačem  a  to  porovnáme  s  tříděním  provedeným  člověkem  –  abychom  vyřadili  možnost,  že  jde  o  náhodné  třídění.          

                                                                                                               33  Zároveň   jsme  mohli   tisknout   vizualizaci   znázorňující   toto   rozdělení  pro  každého  konkrétního  pozorovatele   –   vytvářeli   jsme   osobní   „vizitky“   s  grafem   zachycujícím   specifika   jednotlivých  vnímání,  které  jsme  pokusným  osobám  věnovali  a  zároveň  jsme  vystavili  všechny  grafy  na  tabuli,  kde   jsme   je   mohli   předběžně   porovnávat.   Naše   pracoviště   např.   zde:  http://ciant.cz/index.php/en/gallery/category/496-­‐2012-­‐12-­‐06mutamorphosis?start=20    34  Hyperplocha:  topologický  prostor,  který  se  skládá  z  množiny  všech  uzavřených  podmnožin  jiného  topologického  prostoru    

  24  

Závěr    Tvary,  které  vnímáme,  jsou  funkčními  odezvami  vnímání.    Informace  (forma,  morfé,  tvar)  je  projevem  samoorganizace  vyskytující  se  v  systémech   udržovaných   daleko   od   rovnováhy.   Toto   vyvstání,   emergence,   je  nezávislé  na  chemii  i  energetice  systému.    Žijeme   v   komplexním   světě.   Jeho   vnitřní   dynamika   je   řízena   (podivnými)  atraktory   a   to,   co   v   nímáme,   je   jejich   projekce   –   řez   komplexní   realitou,   vzor  (pattern).  Realita  vnějšího  světa,  stejně  jako  komplexní  adaptivní  systém  našeho  vědomí   mají   svou   vnitřní   dynamiku,   kterou   nemůžeme   vnímat   v   její   úplné  komplexitě.  Potřebujeme  filtry,  síta,  “obrazovky”,  na  nichž  se  nám  ukazují  vzory  a  tvary.      Tvar   v   dynamickém   systému   je   reflexe   vnitřní   energetiky,   která   musí   být  “nekonečně   běžící”   a   okrajových   podmínek   (nerovnováhy).   Tvary   se   vytvářejí  pro  konkrétní  materiální  substance,  ale  v  širokém  rozmezí  podmínek  se  vytvářejí  Ljapunovovsky  stejné  sekvence  po  určitou  dobu.      Většina  nalýz  tohoto  typu  je  však  založena  na  jednorozměrných  datech  a  vzor  se  do   nich   vnáší   pomocí   sčítání   přes   čas,   čímž   vznikne   jednorozměrné   rozdělení  (určující,  jak  často  se  vyskytne  určitá  hodnota).  Entropie  –  ve  skutečnosti  pouze  jednotlivé  ortogonální   komponenty,   na  něž   lze   rozložit  naše   spektrum  entropií  informačního  zisku  bodu  (PIG),  je  měřítkem  strukturovanosti.  PIG  zachycuje  stav  (multifraktálního)   objektu   jako   projekci   generalizované   Rényiho   entropie  objektu   v   daném   bodě   v   multidimenzionálním   prostoru   do   dvourozměrné  plochy.   Předpokládá   se,   že   dynamický   proces,   který   se   projevuje   navenek   jako  formování  vzoru,  se  vnitřně  projevuje  maximalizací  určité   funkce,  které  říkáme  entropie.      Tvar   je   formován   entropií   –   tedy   změnou   informace   nesenou   systémem  –   a   to  bez   ohledu   na   energetickou   bázi.   Chemie   (ve   smyslu   koncentrace   látek   v  prostředí)   dává   procesu   dynamiku,   ale   procesy   samoorganizace   jsou   na   ní  nezávislé.   Důkaz   je   jednoduchý:   jedním   z   nejznámějších   samoorganizujících   se  systémů/tvarů   je   Bělousovo-­‐Žabotínského   reakce   (BŽR).   Je   možno   zakoupit   si  set   a   vytvořit   si   její   typické   tvary   v   domácích   podmínkách,   a   to   už   někdy   od  sedmesátých  let  dvacátého  století.  Vtip  je  v  tom,  že  jak  sám  výrobce  doporučuje  v  případě,   že   člověk   není   spokojen   s   výsledkem,   je   možné   pokusnou   nádobou  zatřást   a   barva   se   opět   změní   na   počáteční   homogenní   a   vzory   se   v   ní   vytvoří  znovu.  To,  že  se  reakce  vytváření  vzorů  skutečně  rozběhne  znovu  bez  ohledu  na  momentální  stav  chemické  reakce,  je  důkazem  toho,  že  struktury  (tvary,  pattern)  se  vytvářejí  bez  ohledu  na  chemii.  (BŽR  byla  předvedena  v  roce  1968  v  Praze  a  

  25  

poté  následovalo  pár  let,  kdy  se  podobným  výzkumem  zabývalo  velké  množství  českých  vědců.  Ale  v  okamžiku,  kdy  Prigogine  získal  v  roce  1977  Nobelovu  cenu,  byla  většina  výzkumu  týkajícího  se  samoorganizace  zastavena,  protože  Prigogine  byl  původně  ruský  vědec,  který  emigroval  na  západ,   takže  ve  východním  bloku  nebylo  žádoucí  navazovat  na  jeho  úspěchy.)    To   znamená,   že   samoorganizace   a   tvary,   které   vytváří,   jsou   nezávislé   na  konkrétních  podmínkách  (chemického,  energetického  prostředí).  To,  že  v  rámci  samoorganizujících  se  systémů  vzniká  jen  několik  základních  tvarů,  je  dáno  tím,  že   jen   malá   sada   koeficientů   vede   k   Ljapunovovsky   stabilním   systémům   (tj.  systémům,  které  se,  vychýleny  z  rovnováhy,  opět  vracejí  do  oblasti  atraktoru).35    Samoorganizace   je   princip,   který   by   za   jistých   okolností  mohl   být   chápán   jako  základnější   teorie   než   například   kvantová   teorie,   tato   myšlenková   linie   má  ovšem  tak  dalekosáhlé  důsledky,  že  přesahuje  záměr  této  práce.      Uzavřeme  proto  výklad  paralelními,  rezonujícími  myšlenkami  Manuela  DeLandy.  Manuel  Delanda,   původní   profesí   filmový   tvůrce,   se   již   od   osmdesátých   let   20.  století   intenzivně   zabývá   dílem   francouzského   filosofa   Gillesa   Deleuze.   Vydal  několik   knih,   v  nichž   interpretuje   jeho   dílo   –   se   zvláštním   ohledem   na   vývoj  současné   vědy.   V  knize   Intensive   Science   and   Virtual   Philosophy   mimojiné  vyzdvihuje  Deleuzovu  přesnou  analýzu  fázového  prostoru  (či  fázového  portrétu  –   prostoru   vyplněného   trajektoriemi)   v   němž   na   rozdíl   od   ostatních   označil  pregnantně   ontologický   rozdíl   mezi   trajektoriemi   a   vektorovým   polem.   (Což  využil  k  destrukci  tradičních  distinkcí  možnosti  a  nutnosti  –  atraktor  je  reálný,  i  když  není  nikdy  aktualizovaný,  protože  trajektorie  se  k  němu  blíží  asymptoticky  –   a   determinismu   –   prostor   s  více   atraktory   totiž   dává   systému   „na   výběr“   –  v  tom   se   blíží   Prigoginovi   a   Nicolisovi,   u   nichž   dochází   k   rozhodnutí   pomocí  náhodných  fluktuací  prostředí.)    Ve  své  další  knize  Philosophy  and  simulation  na  svůj  předchozí  výklad  navazuje  a  definuje   pojem   mechanism-­‐independence   neboli   nezávislost-­‐na-­‐mechanismu.  Ten   zjednodušeně   řečeno   poukazuje   na   situaci,   kdy   prostor   možností   určuje  podobu  konečných  procesů  a  objektů,  a  to  tak,  že  stejný  prostor  možností  může  vytvářet   různé   tvary   (v   různých   materiálních   prostředích)   –   oblíbeným  příkladem  je  krystal  soli  a  bublina,  což  jsou  na  pohled  odlišné  tvary  tvary,  které  

                                                                                                               35  Co  je  ale  naprosto  senzační,  je  odhalení,  že  BŽR  vypadá  úplně  jinak,  když  změníme  tvar  nádoby,  v  níž  se  odehrává.  (V  kruhové  nádobě  vytváří  BŽR  klasické  kruhovité  tvary,  ve  čtvercové  vytváří  dva   symetricky   umístěné   víry,   v   trojjúhelníkové   se   toky   střetávají   ve   středovém   bodu.)   To  znamená,   že   tomu  není   tak,   že   by   (stejně   jako   celulární   automaty)   fungovala   tak,   že   jednotlivé  buňky  pouze   reflektují   stav   svých   sousedů   –  musí   to   být   tak,   že   všechny  buňky   “vědí”   o   všech  ostatních,   že   je   zde   něco   jako   vědomí   celku,   protože   všechny   elementy   jsou   si   nějak   “vědomy”  hranic  systému.    

  26  

však   oba   vznikly   proto,   aby   se  minimalizovalo   povrchové   napětí.   Jinými   slovy:  stabilita   emergentních   vlastností   je   vysvětlena   strukturou  prostoru  možností   a  fakt,   že   tato   stabilita   může   být   zobrazena   úplně   jiným   mechanismem,   je  vysvětlena  tím,  že  jejich  prostory  možností  sdílejí  stejnou  strukturu.        Na  úplný  závěr  bych  ráda  poznamenala,  že  tento  text  představuje  jakýsi  úvod  a  definici   hlavních   pojmů,   s   nimiž   pracujeme   v   rámci   našeho   výzkumu,   v   němž  zjednodušeně  řečeno  zkoumáme  lidské  vnímání,  respektive  získávání    informací  o  komplexní,  samoorganizující  se  realitě.  Jde  o  natolik  široké  téma,  že  přirozeně  pokrýváme  jen  zlomek  možné  problematiky.  Každopádně  bude  následovat  ještě  druhá   část,   v   níž   bychom   rádi   představili   výsledky   našeho   výzkumu   a   jejich  možné  interpretace.                                                              

  27  

Zdroje      Knihy    Baeyer,  Hans  Christian  von:  Information.  The  New  Language  of  Science  (2003),  paperback  edition  by  Phoenix,  an  imprint  of  Orion  Books  Ltd,  London  2004    Capra,  Fritjof:  Tkáň  života.  Nová  syntéza  mysli  a  hmoty,  Academia,  Praha  2004  (The  Web  of  Life.  A  New  Synthesis  of  Mind  and  Matter,  HarperCollins  1996)    Coveney,  Peter;  Highfield,  Roger:  Mezi  chaosem  a  řádem.  Hranice  komplexity:  hledání  řádu  v  chaotickém  světě,  Mladá  Fronta,  edic  Kolumbus,  Praha  2003  (první  vydání  1995)    Delanda,  Manuel:  Intensive  Science  and  Virtual  Philosophy    (Continuum  2002/reprinted  2010)    Delanda,  Manuel:  Philosophy  and  Simulation.  The  Emergence  of  Synthetic  reason,  First  Edition,  Continuum  2011    Flusser,  Vilém:  The  Shape  of  things.  A  Philosophy  of  Design,  Reaktion  Books,  London  2012  (First  Edition  in  English  1999,  in  German  1993)    Gell-­‐Mann,  Murray:  The  Quark  and  the  Jaguar.  Adventures  in  the  Simple  and  the  Complex  (1994),  Holt  Paperback,  New  York    Gleick,  James:  The  Information.  A  History.  A  Theory.  A  Flood,  Pantheon  Books,  New  York,  First  Edition  2011    Hayles,  N.  Katherine:  How  We  Became  Posthuman.  Virtual  Bodies  in  Cybernetics,  Literature  and  Informatics,  tHe  University  of  Chicago  Press,  First  Edition  1999    Chaitin,  Gregory:  Information,  Randomness  and  Incompleteness:  Papers  on  Algorithmic  Information  Theory  (Series  in  Computer  Science),  World  Scientific  Pub  Co  Inc;  2  Sub  edition  (April  1990)    Mitchell,  Melanie:  Complexity  (A  guided  tour),  Oxford  University  Press,  New  York,  

First  Edition  2009  

 

Shannon,  Claude  E.;  Weaver,  Warren:  The  Mathematical  Theory  of  Communication  (1948),  reprint  University  of  Illinois  Press;  1st  edition  (September  1,  1998)    

  28  

Srp,  Karel:  František  Kupka.  Geometrie  myšlenek,  Arbor  Vitae,  Praha  2012    Von  Neumann,  John:  Mathematical  Foundations  of  Quantum  Mechanics  (1932),  reprint:  Princeton  University  Press;  translation  from  German  edition  (October  28,  1996)      Články:      James  P.  Crutchfield:  Five  Questions  on  Complexity.  Stable  URL:  http://csc.ucdavis.edu/~chaos/papers/QsOnComplexity.pdf      Jizba,  Petr;  Arimitsu,  Toshihico:  The  world  according  to  R�enyi:  thermodynamics  of  multifractal  systems,  Annals  of  Physics  312  (2004)  17–59.  Stable  URL:  http://www.fjfi.cvut.cz/files/k402/pers_hpgs/jizba/publications/Jizba,%20Arimitsu,%20Annals%20of%20Physics,%20312%20(2004)%2017-­‐59.pdf      Martyushev,  Leonid  M.:  Entropy  and  Entropy  Production:  Old  Misconceptions  and  New  Breakthroughs,  journal  Entropy,  special  edition  Maximum  Entropy  Production,  Mars  2013  (ISSN  1099-­‐4300).  Stable  URL:  http://www.mdpi.com/1099-­‐4300/15/4/1152      Turing,  A.M.:  The  Chemical  Basis  of  Morphogenesis,  Sciences,  Vol.  237,  No.  641  (Aug.  14,  1952),  pp.  37-­‐72.  Stable  URL:  http://www.jstor.org/stable/92463      Kolektiv  autorů  (Dalibor  Štys,  Petr  Jizba,  jan  Urban,  Tomáš  Náhlík,  Dalibor  K.  Štys):  Point  Information  Gain,  Point  Information  Gain  Entroy  and  Point  Divergence  Gain:  measures  of  information  in  a  structured  dataset,  2012  (preprint  submitted  to  Physics  Report)      Kolektiv  autorů  (Dalibor  Štys,  Jan  Urban,  Jan  Vaněk,  Petr  Císař):  Analysis  of  biological  time-­‐lapse  microscopic  experiment  from  the  point  of  view  of  the  information  theory,  2009  (preprint  submitted  to  Micron)