21
Institut für Psychologie Leopold Franzens Universität Innsbruck Studienkennzahl: C298 / Psychologie The Symbol Grounding Problem Forschungsseminar: Neuere psychologische Fachliteratur (Gruppe D) SS 2007 Seminarleiter: Dr. Karl Leidlmair Aufderklamm Lisa Maria 0416296 Caroline Gurschler 0438246

The Symbol Grounding Problem · 2016. 4. 26. · 1.1. Caspar Hauser Syndrom Am 26. Mai 1828 wurde in Nürnberg ein etwa 16-jähriger, verwahrlost aussehender Junge gefunden, der kaum

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

  • Institut für Psychologie

    Leopold Franzens Universität Innsbruck

    Studienkennzahl: C298 / Psychologie

    The Symbol Grounding Problem

    Forschungsseminar:

    Neuere psychologische Fachliteratur (Gruppe D)

    SS 2007

    Seminarleiter: Dr. Karl Leidlmair

    Aufderklamm Lisa Maria 0416296

    Caroline Gurschler 0438246

  • Inhaltsverzeichnis

    1. Einleitung

    1.1. Kaspar Hauser

    1.2. Natürliche Sprache

    2. Annäherung an das Problem in der Geschichte der

    Psychologie

    2.1. Vom Behaviorismus zum Kognitivismus

    2.2. Symbolsysteme

    3. Das Symbol Grounding Problem

    3.1. Das Chinesische Zimmer

    4. Searle, Dreyfus, Harnad

    4.1. John Searle

    4.2. Hubert Dreyfus

    4.3. Stevan Harnad

    5. Autonome Agenten

    5.1. AIBO

    6. Resümee

    7. Literaturverzeichnis

  • 1.Einleitung:

    1.1. Caspar Hauser Syndrom

    Am 26. Mai 1828 wurde in Nürnberg ein etwa 16-

    jähriger, verwahrlost aussehender Junge gefunden,

    der kaum sprechen konnte. Man brachte ihn zur

    Polizeiwache, und nannte ihn „Kaspar Hauser“. Er

    konnte lediglich zwei Sätze sagen: „Wos net“ und

    „So ein Reiter möcht ich werden wie mein Vater“.

    Sein Zustand erregte das Interesse von zahlreichen

    Wissenschaftlern, die verschiedene Untersuchungen mit ihm

    durchführten. Er bekam nun auch Unterricht im Sprechen. Sein

    Hauptvormund Paul Johann Anselm Ritter von Feuerbach

    beschrieb, dass Kaspar anfangs nur Brot und Wasser zu sich

    nahm. Vor anderen Speisen ekelte er sich. Es wurde vermutet,

    dass Kaspar Hauser lange Zeit einsam in einem dunklen Verlies

    gefangen gehalten wurde und dort ohne Kontakt zur Außenwelt

    lebte.

    Auch in der Psychologie und Medizin kennt man das so genannte

    Kaspar-Hauser-Syndrom. Es tritt bei Babies und Kleinkindern

    auf, die lange Zeit ohne persönlichen Kontakt und ohne

    liebevolle Zuwendung aufwuchsen und zugleich kaum soziale oder

    kognitive Anregung erhielten.

    Die Geschichte von Kaspar Hauser ist ein gutes Beispiel für

    das Thema, welches wir in dieser Arbeit behandeln werden. Wir

    beschäftigen uns in dieser Arbeit mit dem „Symbol Grounding

    Problem“. Es geht grob formuliert darum, wie fremde Symbole

    eine Bedeutung bekommen? Ferner geht es auch darum wie eine

    Software mit einer bestimmten Pixelverteilung, die am

    Bildschirm als „ja“ erscheint zur Bedeutung? Bekommt dieses

    http://upload.wikimedia.org/wikipedia/commons/2/2f/Kaspar_hauser.jpg

  • „Ja“ seine Bedeutung erst durch den Menschen, der das Symbol

    liest?

    Die Standartantwort auf die Frage, woher Symbole ihre

    Bedeutung haben ist, dass wir die Symbole in der richtigen Art

    und Weise mit der Welt in Verbindung setzen oder dass sie

    durch soziale Interaktion Bedeutung erhalten.

    Diese Symbole sind also in der Umwelt des Menschen verankert.

    Menschliche Symbole haben folglich immer einen Bezug zur

    Umwelt, die uns Menschen zugänglich ist.

    1.2. Natürliche Sprache

    Unsere natürliche Sprache ist ein dynamisches System. Was

    bedeutet, dass neue Worte auftauchen gehen verloren und die

    Bedeutung verändert sich auf kultureller und individueller

    Ebene. Der Sprachegebrauch einer einzelnen Person entwickelt

    und ändert sich im Laufe des Lebens.

    Wie vielleicht jedem bekannt ist, kennzeichnet gerade die

    Sprache bestimmte Generationen oder soziale Milieus.

    Sprache verändert sich also, und aufgrund dieser Dynamik muss

    der Versuch scheitern, natürliche Sprache mit statistischen

    Grammatiken zu erzeugen. Demzufolge muss die Wissenschaft

    andere ausführlichere Modelle finden, die in der Lage sind

    diese Dynamik zu berücksichtigen. Da die Evolution von Sprache

    nicht wie die von Lebensformen auf genetischer, sondern auf

    kultureller Ebene stattfindet, bietet sich die Untersuchung

    der Dynamik innerhalb von Populationen an.

    Es stellen sich nu zwei Fragen:

    1. Wie lernt der Mensch den Gebrauch von Sprache?

    2. Wie hat sich Sprache an sich entwickelt?

    Dabei interessiert man sich nicht für Geräusche, Ausdrücke,

    Zeichen oder etwa die Grammatik, sondern vielmehr Entstehung

    von Bedeutung.

  • 2. Annäherung an das Problem in der Geschichte der

    Psychologie:

    2.1. Vom Behaviorismus zum Kognitivismus

    Für viele Jahre war die einzige empirische Annäherung an diese

    Problematik in der Psychologie auf behavioristischer Grundlage

    möglich. Der Behaviorismus vertrat den Standpunkt, dass es

    nicht erlaubt sei, Theorien darüber zu bilden, was im Kopf

    vorgeht, wenn ein bestimmtes Verhalten gezeigt wird oder

    darüber was in den Köpfen und Gedanken überhaupt Eingang

    findet. Nur Beobachtbares war Gegenstand des Behaviorismus.

    Unter dem Begriff Behaviorismus werden alle die

    Forschungsprogramme zusammengefasst, die sich der

    naturwissenschaftlichen, objektiven und experimentellen

    Methodik verschrieben haben. Es liegt also nahe, dass man sich

    unter der Maxime des Behaviorismus nicht oder nur kaum mit der

    Problematik des „Symbol Grounding Problems“ beschäftigen

    konnte.

    Erst mit der kognitiven Wende wurde akzeptiert, auch

    unbeobachtbare Prozesse zu untersuchen. Die Kognitive Wende

    war eine Entwicklung um 1950 innerhalb der Paradigmen der

    psychologischen „scientific community“ vom Behaviorismus hin

    zum Kognitivismus. Dadurch wurde aber auch der Weg für den

    Einzug subjektiver Interpretationen in die Wissenschaft

    geebnet.

    Die Wirkung der Kognitionswissenschaft ging jedoch weit über

    die Psychologie hinaus. Kognitionswissenschaftler findet man

    heute außer in der Psychologie auch in der Linguistik, der

    Philosophie, der Computerwissenschaft, der Physik, der

    Mathematik, der Anthropologie, der Soziologie und der

    Hirnforschung.

  • Auch die semantische Interpretierbarkeit, wie wir sie heute

    kennen, wurde vom theoretischen Vokabular des Kognitivismus

    bestimmt. Dieses Gebiet ist eines der wichtigsten und

    zentralsten des Kognitivismus. Das Werk „The language of

    thought“ von Fodor (1975) galt für lange Zeit als das

    wichtigste Werk der Cognitive Theory.

    Fodor hat unter Zuhilfenahme verschiedener Elemente aus der

    Philosophie des Geistes und den Kognitionswissenschaften eine

    komplexe Theorie des Geistes entwickelt, die er selbst

    "repräsentational" nennt.

    Zu Fodors repräsentationaler Theorie des Geistes gehört auch

    die Annahme einer Sprache des Geistes (language of thought):

    Der Geist arbeite mit mentalen Repräsentationen, die nach

    einer mentalen Syntax zu Gedanken zusammengesetzt werden.

    An Fodors repräsentationaler Theorie des Geistes ist in den

    letzten Jahrzehnten viel Kritik geäußert worden. Es wird

    argumentiert, dass mit dem Konnektionismus ein realistischeres

    Modell des Geistes entwickelt worden sei. Der Konnektionismus

    verzichtet nämlich auf eine Trennung zwischen Software- und

    Hardwareebene: Künstliche neuronale Netze können kognitive

    Fähigkeiten simulieren, ohne, dass sie explizite

    Repräsentationen oder eine Syntax haben.

    Fodor vertritt weiter die These, dass der Verstand ein

    Symbolsystem sei und die Kognition, also das Erkennen ist

    Symbolhandhabung. Die Möglichkeit des Erzeugens von komplexen

    Verhalten durch Symbolhandhabung wurde empirisch durch Erfolge

    auf dem Gebiet in der künstlichen Intelligenz (KI) gezeigt.

  • 2.2 Symbol-Systeme

    Was ist ein Symbolsystem? Nach Newell (1980) Pylyshyn (1984),

    Fodor (1987) und der klassischen Arbeit von Neumann, Turing,

    Goedel und Church kann man Symbolsysteme wie folgt definieren:

    Ein Symbolsystem ist:

    1. ein Satz von willkürlichen „physikalischen Zeichen“ also

    Kratzer auf Papier, Löcher in einem Band, etc. Diese

    sind

    2. verändert aufgrund von „expliziten Regeln“, welche

    3. physikalische Zeichen oder Zeichenketten sind. Die

    Richtlinie zur Handhabung von Symbolen basiert

    4. lediglich auf der Form des Symbolzeichens (nicht ihre

    „Bedeutung“) d.h. sie ist lediglich syntaktisch und

    besteht aus

    5. „Kombinationen“ und Wiederverbindenden Symbolzeichen. Es

    gibt

    6. primitive Symbolzeichen und

    7. zusammengesetzte Symbolzeichen, also Zeichenketten. Das

    gesamte System und alle seine Teile, also die primitiven,

    einfachen Zeichen, die zusammengesetzten Zeichen, die

    tatsächlichen und möglichen syntaktischen Handhabungen

    und die Richtlinien, sind alle

    8. „semantisch erklärbar: “ Der Syntax kann systematisch

    eine Bedeutung zugewiesen werden, z.B. für Gegenstände,

    für Beschreiben von Sachlagen.

    Auch wenn Psychologen heute verstärkt davon ausgehen, dass

    sich die menschliche Intelligenz aus Modulen zusammensetzt,

    ist es allem Anschein nach nicht damit getan, unterschiedlich

    spezialisierte Systeme einfach zusammenzuschalten. Es führt

    kein Weg von einem Computer zu den typischen Leistungen

    allgemeiner menschlicher Intelligenz. Anders als Fachprogramme

  • oder Expertensysteme sind wir Menschen nicht auf eine einzige

    Tätigkeit festgelegt. Wir können nicht nur Schach spielen oder

    nur Theoreme beweisen oder nur Krankheiten diagnostizieren.

    Wir Menschen können auch viele andere Sachen. Dies bezeichnet

    man als Allgemeine Intelligenz.

    Ein weiteres Problem von Computersystemen ist es schnell und

    adäquat reagieren zu können. Man spricht hierbei von Echtzeit-

    Performance. Ein intelligenter Organismus muss sofort

    reagieren können und nicht erst dann, wenn er mit seiner

    Datenverarbeitung fertig ist. Jedem von uns ist klar, dass die

    zentralisierte Informationsverarbeitung in klassischen

    seriellen Computern dafür zu langsam und unflexibel ist.

    Eines der größten Probleme für Systeme der klassischen

    Künstlichen ist das Symbol Grounding Problem. Mit diesem

    werden wir uns in unserem Referat beschäftigen. Dabei handelt

    es sich um die Frage, wie abstrakte Symbole zu ihrer Bedeutung

    in der realen Welt kommen.

  • 3. Symbol grounding problem

    Mithilfe der heutigen Wissenschaft ist es möglich einem

    Roboter beizubringen z. B. eine Flache von da drüben

    herzubringen und auf den Tisch zu stellen. Die Technik macht

    dies möglich. Das Problem dabei ist, wie man dem Roboter zu

    verstehen gibt, was überhaupt eine Flache ist. Man nennt

    dieses Problem das „Symbol Grounding Problem“, was aussagt,

    dass die Symbole geerdet sein müssen. Was diese Metapher

    bedeutet, ist dass das Wissen um die Bedeutung des Symbols in

    der Erfahrung verankert sein, ansonsten hängt das Symbol in

    der Luft und kann nicht benutzt werden.

    Abbildung 1

    Auf der linken Seite der Abbildung sieht man dass die

    Bedeutungen „grounded“ sind, d. h. sie können mit der Welt in

    Verbindung gebracht werden. Auf der rechten Seite hängen die

    Symbole in der Luft, sie haben in diesem Fall keinen Bedeutung

    für uns.

  • 3.1. Chinesisches Zimmer

    Das chinesische Zimmer ist ein Gedankenexperiment von John

    Searle, mit welchem er zu widerlegen versuchte, dass

    menschliche Intelligenz durch Computer nachgeahmt oder sogar

    übertroffen werden könne. Searle plädierte dafür, dass der

    Turing- Test nicht in der Lage ist künstliche Intelligenz

    hinreichend zu beschreiben.

    Beim Experiment wird ein geschlossener Raum beschildert, in

    dem sich ein Mensch befindet. Durch den Türschlitz bekommt er

    von außen mehrer Schriften mit Geschichten in chinesischer

    Schrift. Da die Person kein Chinesisch spricht versteht sie

    weder die Zeichen, noch den Sinn der Geschichte. Zusätzlich

    bekommt er auch noch einige Schriften mit Fragen zu der

    Geschichte. Im Zimmer findet er chinesische Skripte und ein

    Handbuch mit Regeln in seiner Muttersprache vor. Anhand der

    Zeichenerkennungen, kann er die Antworten auf die ihm

    gestellten Fragen finden, und schreibt sie auf die Zettel,

    ohne die Geschichten oder die Fragen verstanden zu haben.

    Vor dem Raum befindet sich ein chinesisch sprechender Mensch,

    welcher die Antworten liest und aus den Antworten schließt,

    dass sich im verschlossenen Raum ebenfalls ein chinesischer

    Muttersprachler befindet.

    Abbildung 2

  • Daraus folgt, dass der Raum den Turing- Test besteht, obwohl

    die Person die sich im Raum befindet, nicht einmal verstanden

    hat, worum es sich handelt. Das Verstehen kann durch die

    Regeln nicht geleistet werden, da die Symbole keine

    intrinsische Bedeutung haben.

    Stevan Harnad nimmt Bezug auf dieses Problem und versucht es

    durch das Symbol Grounding zu lösen, d. h. durch die

    Verankerung von Symbolen in der Welt.

    „Dabei wird das klassische symbolverarbeitende System durch

    Sensoren erweitert, die jeweils mit der Welt verbunden sind.

    Diese Sensoren können beispielsweise neuronal und damit

    insbesondere nichtsymbolisch arbeiten. Mit Hilfe der Sensoren

    kann das ehemals rein symbolische System nichtsymbolische

    Objekte und Ereignisse unterscheiden und identifizieren und

    damit kategorisieren. Basierend auf den nichtsymbolischen

    Kategorien können nun weitere symbolische Kategorien gebildet

    werden oder auch symbolisch Schlussfolgerungen gezogen werden.

    Harnad gibt ein Beispiel, bei dem ein Zebra als ein Pferd mit

    Streifen definiert wird, wobei das Pferd und die Streifen

    sensorisch verankert sind und das Zebra rein symbolisch aus

    diesen gebildet wird.“1

    Weiters betont Harnad über Interaktion mit der Umwelt

    Erkenntnis erlangen und es deshalb keine explizite

    Repräsentation von Wissen innerhalb des Systems geben muss.

    Das System ist direkt eingebettet in seine Umwelt.

    1 http://bieson.ub.uni-bielefeld.de/ S.22

    http://bieson.ub.uni-bielefeld.de/

  • 4. Searle, Dreyfus, Harnad

    4.1. Searl:

    „Intelligenz ist ein mentales Phänomen. Dieses ist nicht

    unabhängig von der Hardware (unser Gehirn) – sie braucht

    unseren Körper. Somit kann ein Computer nicht intelligent

    sein.“

    Das von Searle formulierte Unbehagen an computationellen

    Modellen führte in den 80er Jahren mit dem sog. Konnektionismus

    zu einer Art Paradigmenwechsel. Man merkte, dass die neuronale

    Ebene des Gehirns berücksichtigt werden muss, die Fähigkeit

    des menschlichen Gehirns, parallel zu arbeiten, also separate

    Operationen unabhängig voneinander auszuführen und diese

    weitgehend autonomen Operationen permanent miteinander zu

    kombinieren z. B. bereits repräsentierte Referenzen im Diskurs

    aufeinander zu beziehen.

    Die strikte Trennung von mentaler (hardware) und neuronaler

    (software) Ebene ist im Konnektionismus aufgehoben, die

    Modellierung kognitiver Prozesse ist neuronal, nicht

    symbolisch-funktional inspiriert. Konzepte sind im Gedächtnis

    nicht isoliert abgespeichert sondern mit anderen Konzepten

    verknüpft.

    Er geht von der Annahme aus, dass Wissenseinheiten, auch

    sprachliches Wissen, nicht ungeordnet, sondern in

    systematischen Zusammenhängen und typischen Konstellationen,

    wie z. B. Restaurantbesuch, Begrüßung, Immatrikulation etc.

    abgespeichert, als Muster wieder erkannt und auf analoge

    Situationen angewandt wird.

    Verstehen und Sinn beruht damit auf einer vernetzten

    Integrationsleistung, mit der wir Texte, Sätze, Wörter und

  • außersprachliche Wissensbestände in unser Bewusstsein

    eingliedern. Dieser integrative Prozess ist subjektiv-

    individuell, da die Verknüpfungen in neuronalen Netzwerken

    nicht vorgegeben sind und sich jeweils selbst organisieren,

    aus Erfahrung gelernt haben und weiterhin lernen. Verstehen

    ist also nicht eine starre Zuordnung von Text und hierin

    objektiv abgebildeter Realität sondern ein subjektiv-

    interaktiver Prozess; in ihm erfolgt die mikrosekundenschnelle

    Selektion, Verknüpfung und Bearbeitung sprachlicher

    Repräsentation (die natürlich z. T. konventionell und

    kulturell vorgeprägt ist) sowie deren Integration in die

    Handlungszusammenhänge.

    Der mit den Symbolen hantierende Mensch, so ist Searles Idee,

    ist in derselben Lage, wie ein Computer. Er hat Symbole und

    Anleitungen, diese zu kombinieren aber die Bedeutung dieser

    Symbole erfährt er nicht. Dass Computer keine Bedeutung

    kennen, liegt also nicht etwa daran, dass sie aus

    Siliziumchips statt aus biologischer Materie bestehen.

    Searle will seine Kritik auch nicht so verstanden wissen, als

    sei grundsätzlich keine Maschine in der Lage, eine Sprache zu

    verstehen. Er bezieht diese Feststellung nur auf eine

    Maschine, deren Verhalten allein durch die formalen Prozesse

    der Symbolmanipulation bestimmt ist.

    Was die Maschine seiner Ansicht nach leisten müsste, ist

    Bewusstsein und Intentionalität zu schaffen. Mit dieser These

    stellt er das Programm der KI, kognitive Prozesse durch eben

    solche formale Symbolmanipulation zu konstruieren, in Frage.

  • 4.2. Dreyfus

    Hubert Dreyfus stützte sich bei seiner Kritik am „Symbol

    Grounding Problem“ auf Arbeiten der Philosophen Heidegger und

    Merleau-Ponty.

    Dreyfus führte die Misserfolge bei der Programmierung

    intelligenter Rechner darauf zurück, dass es unmöglich sei,

    das Alltagswissen des Menschen explizit zu machen und einem

    Rechner zur Verfügung zu stellen. Er meint, dass menschliches

    Handeln situationsbezogen ist also, dass z.B. Planen in hohem

    Maße opportunistisch ist.

    Klassisches Planen in der Künstlichen Intelligenz besteht

    jedoch darin, dass ein kompletter Plan aufgebaut wird, bevor

    dann die so geplante Handlung durchgeführt wird. Notwendig

    unberücksichtigt bleibt dabei die Dynamik einer stets im

    Wandel begriffenen Welt.

    Man kann sich das etwa so vorstellen dass jemand, der, bevor

    er eine Autofahrt antritt, anhand der Straßenkarte genauestens

    festlegt, wie er fahren wird. Empfehlenswerter ist es aber

    sicher, nur grob zu planen und während der Fahrt auf Wegweiser

    zu achten denn so kann man vielleicht Staus u.s.w. ausweichen.

    Zentral ist der Gedanke, dass kognitive Systeme nicht isoliert

    betrachtet werden dürfen, sondern gerade hinsichtlich ihrer

    kognitiven Aspekte vor allem in der Interaktion mit ihrer

    Umwelt konstituieren. Das Alltagswissen, betonte Dreyfus, sei

    nicht in Form von Sätzen oder Regeln gespeichert, es enthalte

    vielmehr immer nicht explizierbare Anteile. Diese

    »nichtformalisierbaren Formen der ›Datenverarbeitung‹« lassen

    sich nach Dreyfus nur von Wesen bewältigen, die einen Körper

    haben. Denn es sind seiner Ansicht nach im Wesentlichen

    eingeübte körperliche Fähigkeiten, keine regelhaften

    Abstraktionen, die Menschen intelligent handeln lassen. Die

    Annahme, dass sich alles, was für intelligentes Verhalten

    wichtig ist, in formale Regeln fassen lässt, ist demnach

    falsch. Es ist wichtig hervorzuheben, dass Dreyfus nicht

  • glaubt, dass die Künstliche Intelligenz grundsätzlich

    unmöglich ist. Er meint nur, dass das gegenwärtige

    Forschungsprogramm noch nicht so weit ist, da es fehlerhaft

    ist. Er meint um ein Gerät mit menschenähnlicher Intelligenz

    zu erhalten, ist es nötig diesem Gerät eine menschenähnliche

    Existenz zu geben. Solche Intelligenz braucht also einen

    Körper wie den Unseren und auch eine soziale Kultur, wie etwa

    unsere Gesellschaft.

    4.3 Harnad

    Stevan Harnad, (geb. 02.06.45 in Budapest) ist ungarischer

    Kognitionswissenschaftler mit Professuren in Cognitive Science

    an der University of Southampton sowie der Universitè du

    Quèbec in Montreal. Seine Forschungsschwerpunkte liegen im

    Bereich Kategorisierung, Kommunikation und Kognition.

    Harnad erklärt nun das so genannte Symbol Grounding Problem

    anhand von 2 Versionen in Bezug auf Searles Modell des

    chinesischen Zimmers:

    1. Version: Hier soll die Versuchsperson Chinesisch als

    zweite Sprache allein mit einem chinesischen Wörterbuch

    lernen. Dies ist an sich schon ein äußerst schwieriges, doch

    nicht unlösbar, da die Person über eine vorherige Kenntnis von

    Sprache wie z.B. Satzbau, Grammatik usw. verfügt und deshalb

    die chinesischen Symbolfolgen zumindest als „Worte“ und

    „Sätze“ (intrinsische Bedeutung) erkennen kann.

    2. Version: Diese Version stellt nun das Dilemma dar. Hierbei

    soll Chinesisch allein mit Hilfe des chinesisch Wörterbuchs

    als erste Sprache gelernt werden, d.h. ohne vorherige Kenntnis

    einer Sprache und deren formaler Regeln, ja sogar ohne die

    Kenntnis, was „Sprache“ eigentlich bedeutet! Diese Version ist

  • damit unmöglich lösbar, da die Versuchsperson einfach nicht in

    der Lage ist, die Symbole als Buchstaben, Worte und Sätze als

    solche zu deuten und einfach planlos mit ihnen spielt. Somit

    lässt sich allein aus der symbolischen Syntax keine direkte

    semantische Bedeutung gewinnen.

    Stevan Harnad geht noch einen Schritt weiter und stellt die

    Frage ob man überhaupt eine fremde Sprache lernen kann, wenn

    man nichts als ein einsprachiges Wörterbuch besitzt. Dies

    scheint unmöglich, denn ein Symbol reiht sich an das andere

    und nirgendwo wird die Bedeutung eines dieser Symbole fassbar.

    Wie gehen Ethnologen vor, wenn sie in ein fremdes Land reisen

    und Völker erforschen, deren Sprache sie nicht kennen?

    Hier gelingt der Einstieg in die Sprache auf dem Umweg über

    die Interaktion und die Welt. Wenn wir z. B. mit einem

    indischen Ureinwohner durch den Wald spazieren und dieser auf

    ein Kaninchen zeigt und „Gavagai“ sagt, sind wir uns zwar

    nicht sicher, dass er „Kaninchen“ meint oder doch vielleicht

    „Mittagessen“, aber wir haben eine Annahme, die wir weiter

    verfolgen können. Spätestens dann wenn der Ureinwohner das

    Tier mit einem Pfeil tötet, wissen wir, dass er mit „Gavagai“

    Abendessen meint.

    Wenn man nur ein einsprachiges Wörterbuch zur Verfügung hat,

    kann diesen Weg nicht gehen, denn die Symbole haben keine

    Bedeutung.

    Harnad betont, dass beim Symbol Grounding Problem die

    Bedeutung der Symbole dem System nicht intrinsisch ist,

    sondern parasitär. Die Bedeutung kommt bloß aus dem Kopfe des

    Benutzers. Wenn der Mensch also meint, dass der Computer ihn

    verstünde er was man zu ihm sagt und was er einem antwortet,

    so liegt das alleine daran, dass sich der Mensch in dieser

    Hinsicht leicht täuschen lässt.

    Wie schafft man es also einem Computer Bedeutung beizubringen.

    Wie wir wissen ist der Computer ein in sich geschlossenes

  • System. Er ist nicht in der Welt und die Welt ist nicht in

    ihm. Er weiß nichts von der Welt. Er will wahrscheinlich auch

    nichts davon wissen, denn das einzige was ihn interessiert

    sind die Bitmuster in seinem Speicher. Er transformiert Nullen

    und Einsen, natürlich ohne Kenntnis, was diese Zahlen für uns

    Menschen bedeuten. Der Mensch verbindet die Symbole zu dem was

    sie bedeuten. Dies sieht man dann, wenn man dem Menschen aus

    diesem Geschehen herauszieht, und den Roboter alleine in der

    Welt agieren lässt. Harnad schlägt an dieser Stelle vor, dass

    der Roboter durch Interaktion die Bedeutung der Symbole

    erfährt.

    Fast allen Programmen der frühen Kognitionswissenschaften

    fehlt das Symbol Grounding Problem. Ein Schachprogramm z. B.

    hat es nicht nötig zu wissen, dass es Schach spielt, es reicht

    vollkommen wenn der Benutzer dieses Programms dies weiß.

    Das Problem taucht aber dann auf, wenn sich ein System alleine

    in der Welt zurechtfinden muss. Dann nämlich muss es lernen,

    welche Bedeutung Symbole haben. Ein System, das eine Coladose

    ergreifen und wegräumen soll, muss sein Symbol für die

    Coladose mit dem in Verbindung bringen, was seine Sensoren

    wahrnehmen.

    Einer der gängigsten Lösungsvorschläge für dieses Problem

    lautet, dass sich das System seine Begriffe selber bilden

    müsse. Erst durch eigene Erfahrungen lernt es Begriffen

    Bedeutung zu geben und dadurch sein Verhalten ohne Umweg durch

    den Kopf des Programmierers zu steuern.

    Auf diese Weise wäre auch die Lösung auf das Problem der

    Kategorisierung gefunden.

    Schon simple Alltagsdinge lassen sich nicht haargenau

    definieren, immer drängt sich die eine oder andere Ausnahme

    auf. Wie etwa definiert man Vögel so, dass Spatzen, Strauße,

    Pinguine und Brathähnchen unter die Definition fallen? Wie

    macht man einem Computer die unterschiedlichen Verwendungen

    eines so einfachen Verbs wie »essen« klar?

  • 5. Autonome Agenten

    Prinzipiell glaubt Harnad schon, dass eine Maschine

    intelligent sein kann, aber da das Verhalten beobachtbar sein

    muss, müsste die Maschine über einen Körper in die Umgebung

    eingebettet werden.

    Autonome Agenten erfüllen dieses Kriterium, da sie in einen

    künstlichen Körper stecken und Informationen aus ihrer Umwelt

    mittels Sensoren empfangen und dann durch Effektoren die

    Umwelt im Sinne der Erfüllung ihrer Aufgabe verändern. Dazu

    benötigen sie natürlich Fortbewegungsmittel, in diesem Fall

    Räder, Beine oder auch Raupen, um agieren zu können, oder auch

    Greifarme um Sachen aus dem Weg zu räumen.

    Man nennt die Agenten „autonom“, weil sie in der Lage sind,

    sich in ihrer Umgebung zurechtfinden und diese zu verändern,

    ohne dass sie vom Menschen gesteuert werden müssen. Autonom

    bedeutet also soviel wie „seine eigenen Gesetze machen“.

    Es gibt keine allgemeine Definition für autonome Agenten, da

    das Anwendungsgebiet sehr breit gefächert ist.

    Eine der Hauptaufgaben der autonomen Agenten ist der Einsatz

    in gefährlichen Umgebungen z.B. Minensuchroboter. Sie

    erledigen die Arbeit an Orten, wo es für Menschen zu

    gefährlich ist, oder diese gar nicht hingelangen. z.B. in der

    Kanalisation. Des Weiteren sollen die Agenten das Alltagsleben

    der Menschen erleichtern, so wurden z.B. autonome Rollstühle

    oder Roboter zur Altenpflege entwickelt.

    Gerade für alte Menschen wurden auch autonome Agenten

    entwickelt die rein der Unterhaltung dienen. Z.B. der

    elektronische Hund AIBO (Artificial

    Intelligence roBOt) der von Sony

    entwickelt wurde. Die Nutzung reicht also

    von ziemlich einfachen Aufgaben, bis zum

    Einsatz in speziellen Bereichen wie z. B.

    der Luftfahrt.

  • 5.1 AIBO

    Ein besonderes Merkmal von AIBO ist, dass er Wörter erlernen

    kann und auf Befehle zu reagieren. Er lernt, indem man ihm

    Dinge zeigt und das entsprechende Wort dazu genannt wird.

    AIBO´s Augen (Kamera) nehmen dieses Objekt von verschiedenen

    Seiten als Ganzes wahr. AIBO lernt Wörter durch

    Verstärkungslernen, ein positives Feedback wird durch das Wort

    „good“ gegeben, ein negatives Feedback durch das Wort „no“.

    Das Erlernen von Wörtern ist durch den Kontext, in dem das

    Lernen stattfindet stark beschränkt: das language game, AIBO´s

    Eigenständigkeit und den Trainer. Oft ist es der Fall, dass

    AIBO zu dem Zeitpunkt, an dem der Trainer auf ein Objekt zeigt

    und das entsprechende Wort dazu ausspricht, schon wieder ein

    anderes Objekt ansieht. Deshalb spielt die Aufmerksamkeit und

    Zuwendung des Trainers eine große Rolle für den Lernerfolg: je

    weniger intensiv sich der Trainer um AIBO kümmert, desto

    schlechter wird AIBO im Klassifikationsspiel.

    Ein typischer Dialog kann folgender sein:

    1. Human: Stand (der Roboter hat schon Befehle erworben)

    2. Human: Stand up.

    3. Human: Look

    4. Human: ball

    5. Aibo: ball?

    6. Human: Yes

    7. Human: What is it?

    8. Aibo: Ball

    9. Human: Good

  • 6. Resumé

    Wie an dem “Symbol Grounding” Problem zu sehen ist, ist eine

    Verbindung von Symbolen und den dazugehörigen Perzepten in der

    Welt von immanenter Wichtigkeit.

    Ein System zum Lernen von Objekten muss diese daher in der

    Welt sensorisch verankern.

    Bei der Benennung der Objekte muss das System Nominalphrasen

    verarbeiten können.

  • 7. Literaturverzeichnis

    http://users.ecs.soton.ac.uk/

    http://www.uibk.ac.at/psychologie/ arbeit.pdf

    http://www.informatik.uni-leipzig.de/

    http://www.ifi.unizh.ch/

    http://www.christoph-pingel.de/

    http://www.ling.ed.ac.uk/

    http://www.wikipedia.de

    http://www.philosophyofinformation.net/

    Abbildungsverzeichnis

    http://www.cs.bham.ac.uk/

    http://www.unc.edu/

    http://www.wikipedia.de

    http://users.ecs.soton.ac.uk/~harnad/Papers/Harnad/harnad90.sgproblem.htmlhttp://www.informatik.uni-leipzig.de/http://www.ifi.unizh.ch/groups/ailab/teaching/semi2000/Design Principles of Autonomous Agents Text.pdfhttp://www.ling.ed.ac.uk/http://www.cs.bham.ac.uk/http://www.unc.edu/~prinz/pictures/c-room.gif

    2.2 Symbol-Systeme