View
10
Download
0
Category
Preview:
Citation preview
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Maschinelles LernenAuch Computer können aus Erfahrung klug werden
Ute Schmid
Fakultät WIAI, Universität Bamberg
Angewandte Informatik/Kognitive Systeme
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Was ist Lernen?
Entscheidungsbaum-LernenBeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Perzeptron-LernenComputer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Intelligente SystemeI Wissensbasierte Systeme
I Wissen und Regeln durch Menschen modelliertI Allgemeine Mechanismen: Ziehen von Schlüssen,
Ähnlichkeitsvergleich, ...I Lernende Systeme
I Wissen und Regeln werden aus Beispielen erworbenI Lernalgorithmen
If an expert system – brilliantly designed, engineered andimplemented – cannot learn not to repeat its mistakes, it is notas intelligent as a worm or a sea anemone or a kitten.
(O. Selfridge)Je flexibler und anpassungsfähiger ein Organismus, destoweniger verfügt er über ein fest vorgegebenes Verhaltensin-ventar und desto mehr muss (lebenslang) gelernt werden!
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Arten des Lernens
I Auswendiglernen
I Vokabeln, geschichtliche/geographische FaktenI Frage der guten Gedächtnisorganisation für effizienten
Abruf in verschiedenen Kontexten
I Lernen von Klassifikationregeln
I Konzepte: “Hund”, “Primzahl”, “Vorbereitung für gutenPrüfungserfolg”
I Klassen allgemein: Hunderassen, Zustände einerchemischen Anlage
I Identifikation relevanter Merkmalskombinationen zurVorhersage der Zugehörigkeit eines Objekts zu einerKlasse
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Arten des Lernens
I Auswendiglernen
I Vokabeln, geschichtliche/geographische Fakten
I Frage der guten Gedächtnisorganisation für effizientenAbruf in verschiedenen Kontexten
I Lernen von Klassifikationregeln
I Konzepte: “Hund”, “Primzahl”, “Vorbereitung für gutenPrüfungserfolg”
I Klassen allgemein: Hunderassen, Zustände einerchemischen Anlage
I Identifikation relevanter Merkmalskombinationen zurVorhersage der Zugehörigkeit eines Objekts zu einerKlasse
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Arten des Lernens
I Auswendiglernen
I Vokabeln, geschichtliche/geographische FaktenI Frage der guten Gedächtnisorganisation für effizienten
Abruf in verschiedenen Kontexten
I Lernen von Klassifikationregeln
I Konzepte: “Hund”, “Primzahl”, “Vorbereitung für gutenPrüfungserfolg”
I Klassen allgemein: Hunderassen, Zustände einerchemischen Anlage
I Identifikation relevanter Merkmalskombinationen zurVorhersage der Zugehörigkeit eines Objekts zu einerKlasse
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Arten des Lernens
I Auswendiglernen
I Vokabeln, geschichtliche/geographische FaktenI Frage der guten Gedächtnisorganisation für effizienten
Abruf in verschiedenen Kontexten
I Lernen von Klassifikationregeln
I Konzepte: “Hund”, “Primzahl”, “Vorbereitung für gutenPrüfungserfolg”
I Klassen allgemein: Hunderassen, Zustände einerchemischen Anlage
I Identifikation relevanter Merkmalskombinationen zurVorhersage der Zugehörigkeit eines Objekts zu einerKlasse
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Arten des Lernens
I Auswendiglernen
I Vokabeln, geschichtliche/geographische FaktenI Frage der guten Gedächtnisorganisation für effizienten
Abruf in verschiedenen Kontexten
I Lernen von Klassifikationregeln
I Konzepte: “Hund”, “Primzahl”, “Vorbereitung für gutenPrüfungserfolg”
I Klassen allgemein: Hunderassen, Zustände einerchemischen Anlage
I Identifikation relevanter Merkmalskombinationen zurVorhersage der Zugehörigkeit eines Objekts zu einerKlasse
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Arten des Lernens
I Auswendiglernen
I Vokabeln, geschichtliche/geographische FaktenI Frage der guten Gedächtnisorganisation für effizienten
Abruf in verschiedenen Kontexten
I Lernen von Klassifikationregeln
I Konzepte: “Hund”, “Primzahl”, “Vorbereitung für gutenPrüfungserfolg”
I Klassen allgemein: Hunderassen, Zustände einerchemischen Anlage
I Identifikation relevanter Merkmalskombinationen zurVorhersage der Zugehörigkeit eines Objekts zu einerKlasse
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Arten des Lernens
I Auswendiglernen
I Vokabeln, geschichtliche/geographische FaktenI Frage der guten Gedächtnisorganisation für effizienten
Abruf in verschiedenen Kontexten
I Lernen von Klassifikationregeln
I Konzepte: “Hund”, “Primzahl”, “Vorbereitung für gutenPrüfungserfolg”
I Klassen allgemein: Hunderassen, Zustände einerchemischen Anlage
I Identifikation relevanter Merkmalskombinationen zurVorhersage der Zugehörigkeit eines Objekts zu einerKlasse
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Arten des Lernens cont.
I AuswendiglernenI Lernen von Klassifikationregeln
I Lernen von Steuerregeln
I Motorische Steuerung (Stab balancieren, Rückwärtseinparken)
I Prozess-Steuerung (Kläranlage)I Handlungsstrategien (Umformen von Gleichungen, Abfolge
von Beweisschritten, Handlungsfolge zur Installation einesRechners)
I Identifikation von Aktionsfolgen zur Erreichung eines Ziels
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Arten des Lernens cont.
I AuswendiglernenI Lernen von KlassifikationregelnI Lernen von Steuerregeln
I Motorische Steuerung (Stab balancieren, Rückwärtseinparken)
I Prozess-Steuerung (Kläranlage)I Handlungsstrategien (Umformen von Gleichungen, Abfolge
von Beweisschritten, Handlungsfolge zur Installation einesRechners)
I Identifikation von Aktionsfolgen zur Erreichung eines Ziels
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Arten des Lernens cont.
I AuswendiglernenI Lernen von KlassifikationregelnI Lernen von Steuerregeln
I Motorische Steuerung (Stab balancieren, Rückwärtseinparken)
I Prozess-Steuerung (Kläranlage)I Handlungsstrategien (Umformen von Gleichungen, Abfolge
von Beweisschritten, Handlungsfolge zur Installation einesRechners)
I Identifikation von Aktionsfolgen zur Erreichung eines Ziels
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Arten des Lernens cont.
I AuswendiglernenI Lernen von KlassifikationregelnI Lernen von Steuerregeln
I Motorische Steuerung (Stab balancieren, Rückwärtseinparken)
I Prozess-Steuerung (Kläranlage)
I Handlungsstrategien (Umformen von Gleichungen, Abfolgevon Beweisschritten, Handlungsfolge zur Installation einesRechners)
I Identifikation von Aktionsfolgen zur Erreichung eines Ziels
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Arten des Lernens cont.
I AuswendiglernenI Lernen von KlassifikationregelnI Lernen von Steuerregeln
I Motorische Steuerung (Stab balancieren, Rückwärtseinparken)
I Prozess-Steuerung (Kläranlage)I Handlungsstrategien (Umformen von Gleichungen, Abfolge
von Beweisschritten, Handlungsfolge zur Installation einesRechners)
I Identifikation von Aktionsfolgen zur Erreichung eines Ziels
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Arten des Lernens cont.
I AuswendiglernenI Lernen von KlassifikationregelnI Lernen von Steuerregeln
I Motorische Steuerung (Stab balancieren, Rückwärtseinparken)
I Prozess-Steuerung (Kläranlage)I Handlungsstrategien (Umformen von Gleichungen, Abfolge
von Beweisschritten, Handlungsfolge zur Installation einesRechners)
I Identifikation von Aktionsfolgen zur Erreichung eines Ziels
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
KlassifikationslernenI Beispiel: Lernen eines Konzepts
I Objekte der Welt sind (kulturspezifisch) in Konzeptegruppiert
IExtensionale Beschreibung: (unendliche)Menge aller Exemplare �
����
�����
�����
�����
� � � � �� � � � �� � � � �� � � � �
I Intensionale Beschreibung: endliche CharakterisierungKonzept Tisch ist die Menge aller Objekte, für die gilt, dasssie 3 oder 4 Beine und eine Platte haben
I
Lernen: Konstruktion einer intensionalen Beschreibungaus einer endlichen Teilmenge von Exemplaren (Trainings-beispiele)
I Lernen als Induktion
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
KlassifikationslernenI Beispiel: Lernen eines KonzeptsI Objekte der Welt sind (kulturspezifisch) in Konzepte
gruppiert
IExtensionale Beschreibung: (unendliche)Menge aller Exemplare �
����
�����
�����
�����
� � � � �� � � � �� � � � �� � � � �
I Intensionale Beschreibung: endliche CharakterisierungKonzept Tisch ist die Menge aller Objekte, für die gilt, dasssie 3 oder 4 Beine und eine Platte haben
I
Lernen: Konstruktion einer intensionalen Beschreibungaus einer endlichen Teilmenge von Exemplaren (Trainings-beispiele)
I Lernen als Induktion
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
KlassifikationslernenI Beispiel: Lernen eines KonzeptsI Objekte der Welt sind (kulturspezifisch) in Konzepte
gruppiert
IExtensionale Beschreibung: (unendliche)Menge aller Exemplare �
����
�����
�����
�����
� � � � �� � � � �� � � � �� � � � �
I Intensionale Beschreibung: endliche CharakterisierungKonzept Tisch ist die Menge aller Objekte, für die gilt, dasssie 3 oder 4 Beine und eine Platte haben
I
Lernen: Konstruktion einer intensionalen Beschreibungaus einer endlichen Teilmenge von Exemplaren (Trainings-beispiele)
I Lernen als Induktion
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
KlassifikationslernenI Beispiel: Lernen eines KonzeptsI Objekte der Welt sind (kulturspezifisch) in Konzepte
gruppiert
IExtensionale Beschreibung: (unendliche)Menge aller Exemplare �
����
�����
�����
�����
� � � � �� � � � �� � � � �� � � � �
I Intensionale Beschreibung: endliche CharakterisierungKonzept Tisch ist die Menge aller Objekte, für die gilt, dasssie 3 oder 4 Beine und eine Platte haben
I
Lernen: Konstruktion einer intensionalen Beschreibungaus einer endlichen Teilmenge von Exemplaren (Trainings-beispiele)
I Lernen als Induktion
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
KlassifikationslernenI Beispiel: Lernen eines KonzeptsI Objekte der Welt sind (kulturspezifisch) in Konzepte
gruppiert
IExtensionale Beschreibung: (unendliche)Menge aller Exemplare �
����
�����
�����
�����
� � � � �� � � � �� � � � �� � � � �
I Intensionale Beschreibung: endliche CharakterisierungKonzept Tisch ist die Menge aller Objekte, für die gilt, dasssie 3 oder 4 Beine und eine Platte haben
I
Lernen: Konstruktion einer intensionalen Beschreibungaus einer endlichen Teilmenge von Exemplaren (Trainings-beispiele)
I Lernen als Induktion
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
KlassifikationslernenI Beispiel: Lernen eines KonzeptsI Objekte der Welt sind (kulturspezifisch) in Konzepte
gruppiert
IExtensionale Beschreibung: (unendliche)Menge aller Exemplare �
����
�����
�����
�����
� � � � �� � � � �� � � � �� � � � �
I Intensionale Beschreibung: endliche CharakterisierungKonzept Tisch ist die Menge aller Objekte, für die gilt, dasssie 3 oder 4 Beine und eine Platte haben
I
Lernen: Konstruktion einer intensionalen Beschreibungaus einer endlichen Teilmenge von Exemplaren (Trainings-beispiele)
I Lernen als Induktion
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Induktion versus Deduktion
Deduktion
Axiom Alle Menschen sind sterblich.
Fakt Sokrates ist ein Mensch.
Schluss Sokrates ist sterblich!
I “Wissensextraktion”I Anwendung einer korrekten Schlussregel
hier: modus ponensresultiert in einer korrekten Folgerung
I Deduktion: Schließen von Allgemeinem auf Spezielles
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Induktion versus Deduktion
Induktion
Hintergrundwissen Sokrates ist ein Mensch.
Beobachtung Sokrates ist sterblich.
Generalisierung Alle Menschen sind sterblich!
I “Wissensgenerierung”I Aus Beobachtungen/Trainingsbeispielen
wird eine allgemeinere Regel erzeugt,die hypothetischen Charakter hat
I Induktion: Schließen vom Speziellen auf Allgemeines
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Beispiel
I Kontext: Expertensystem für FernreisenI Ziel: Aussprechen von ImpfempfehlungenI Es sei keine genaue Kenntnis vorhanden, wo
Tse-Tse-Fliegen (Malaria) vorkommenI Beschreibung von ausgewählten Regionen, für die bekannt
ist, ob Tse-Tse-Fliege vorkommt durch Merkmale
Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Grundbegriffe
I Repräsentation von Trainingsbeispielen alsMerkmalsvektoren b1 = (0, 0, 1, 1)
I Zuordnung der bekannten Klasse 1↪→ Lernen mit Lehrer (überwachtes Lernen)
I Lernalgorithmus: CAL2, ID3, C4.5, ...I Repräsentation der Hypothesen: Entscheidungsbaum
x1 (vegetation)
x2 (longitude) x2 (longitude)NO Tse−Tse Fly
forrestswamp 0
grassland1 2
NO Tse−Tse FlyNO Tse−Tse Fly Tse−Tse FlyTse−Tse Fly
0 1near eq. far from eq. far from eq.near eq.
0 1
1 0
0
1 0
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
CAL2
1. Starte mit dem Entscheidungsbaum (*) (Klasseunbekannt).
2. Solange sich noch Änderungen ergeben:2.1 Wenn das neue Objekt korrekt klassifiziert wird,
ändere nichts.
2.2 Wenn das neue Objekt als (*) klassifiziert wird,
trage die Klasse ein.
2.3 Wenn das neue Objekt falsch klassifiziert wird,
nimm das nächste Merkmal in den Baum hinzu.
Trage für die entsprechende Ausprägung die
aktuelle Klasse ein und für alle anderen
Ausprägungen (*).
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation CAL2
Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
(0):
*
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation CAL2
Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
(1):
1
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation CAL2
Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
(2):x1
* 0 *
0 21
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation CAL2
Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
(3):x1
* 0
0 21
0
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation CAL2
Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
(4):x1
* 0
0 21
0
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation CAL2
Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
(5):x1
* 0
0 21
x2
*
0 1
1
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation CAL2
Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
(6):x1
* 0
0 21
x2
*
0 1
1
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation CAL2
Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
(7):x1
1 0
0 21
x2
*
0 1
1
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation CAL2
Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
(8):x1
0
0 21
x2
*
0 1
* 0
x20 1
1
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation CAL2
Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
(1):x1
0
0 21
x2
*
0 1
1 0
x20 1
1
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation CAL2
Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
(2):x1
0
0 21
x2
*
0 1
1 0
x20 1
1
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation CAL2
Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
(3):x1
0
0 21
x20 1
0
x20 1
01 1
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Kommentare zu CAL2
I Inkrementelles LernverfahrenI Termination: in einem Durchlauf durch alle Beispiele keine
Änderungen mehr (für disjunkte Klassen)I Entscheidungsbaum: Menge von Wenn-Dann Regeln
WENN (x1 = 0 UND x2 = 0) ODER (x1 = 2 UND x2 = 0)DANN 1 SONST 0
I Funktioniert auch für allgemeines Klassifikationslernen(mehr als 2 Klassen)
I Erweiterungen fürI nicht-disjunkte Klassen (statistische Entscheidung)I reelwertige Merkmalsausprägungen (automatische
Diskretisierung)
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
ID3ID3(beispiele, attribute):
1. Erzeuge Knoten mit beispiele2. WENN alle beispiele positiv, DANN LIEFERE Knoten mit Klasse �1�3. WENN alle beispiele negativ, DANN LIEFERE Knoten mit Klasse �0�4. WENN attribute leer, DANN LIEFERE Knoten mit dem häufigeren
Klassen-Label
5. SONST
5.1 Wähle Merkmal A aus attribute
5.2 Weisse A dem Knoten zu5.3 Für jeden möglichen Wert vi von A
5.3.1 Füge neuen Pfad für A = vi unter Knoten ein
5.3.2 Setze beispielevi als die Teilmenge von beispiele
mit Wert vi für A5.3.3 WENN beispielevi leer
DANN erzeuge Blattknoten mit dem häufigeren
Klassen-Label
SONST ID3(beispielevi , attribute \A)6. LIEFERE Entscheidungsbaum
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation ID3Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
1(1) 2(0) 3(0) 4(0)5(1) 6(0) 7(1) 8(0)
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation ID3Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
1(1) 2(0) 3(0) 4(0)5(1) 6(0) 7(1) 8(0)
x1
10 2
1(1) 7(1)8(0)
2(0) 3(0) 4(0) 3(0) 5(1)
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Handsimulation ID3Nr Vegetation Latitude Humidity Altitude Tse-Tse fly1 swamp near eq. high high occurs2 grassland near eq. high low occurs not3 forrest far f. eq. low high occurs not4 grassland far f. eq. high high occurs not5 forrest near eq. high low occurs6 grassland near eq. low low occurs not7 swamp near eq. low low occurs8 swamp far f. eq. low low occurs not
1(1) 2(0) 3(0) 4(0)5(1) 6(0) 7(1) 8(0)
x1
10 2
1(1) 7(1)8(0)
2(0) 3(0) 4(0) 3(0) 5(1)
0
x2 x2
0 1 10
1(1) 7(1) 8(0) 5(1) 3(0)
0 01 1
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Kommentare zu ID3
I Nicht-Inkrementelles (“Batch”) LernverfahrenI Entscheidungsbaum: Menge von Wenn-Dann Regeln
WENN (x1 = 0 UND x2 = 0) ODER (x1 = 2 UND x2 = 0)DANN 1 SONST 0
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Kommentare zu EB-Verfahren
I Liefern symbolische (verbale) RegelnI Generalisierung: Nur Kombination relevanter Merkmale
nicht: Tabelle der TrainingsbeispieleI EB: Klassifikation noch nie gesehener ObjekteI Allgemein bei Lernverfahren: Trainingsfehler und
Generalisierungsfehler (sollte möglichst gering sein)I Evaluation: Zurückbehalten einer Teilmenge der Beispiele
zum TestenI Lernen basiert auf zwei “inductive biases”
I Language Bias: Ich kann nur Lernen, was ich in derHypothesensprache repräsentieren kann
I Search Bias: Wie bewege ich mich im Hypothesenraum fort(hier von kleinen zu größeren EBs)
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Verkürzung von EBs
I Merkmalsreihenfolge bestimmt Komplexität des gelerntenBaums
I Irrelevante Merkmale in höheren Ebenen bleiben erhaltenI Inkrementelles Lernen: Analyse des gelernten Baumes,
Umstrukturierung und Löschen irrelevanter Merkmale(Beschneidung im Nachhinein)
I Batch-Lernen: Merkmalsauswahl nachinformationstheoretischem Mass
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Beschneidung von EBs
Regel:
αα
αx i Reduce
Beispiel:
x
x x0
00 0
3
2
311
0
1
11
x
x x0
00 0
3
2
311
0
1
11
x1x
x x0
00 0
3
2
311
0
1
11
x
030 1
1
x1Reduce
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Umstrukturierung von EBs
Regel:
α11 α1k α αl1 lk
xjxj
xi
α11
switch
α α αlk
xj
xi xi
l1 1k
Beispiel:
xj
x i ix
a11 21a a12 a22
j j
a a21
xi
x x
11a 12 a22
switch
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Information Gain
I Informationstheoretisches Maß zur Auswahl des nächstenMerkmals
I Welches Merkmal reduziert die Unsicherheit, um welcheKlasse es sich handeln könnte am meisten
I Idee: Entropie des Gesamtsystems minus relative Entropieeines Merkmals
I Merkmal mit höchstem Wert (mit geringster Entropie)auswählen
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Entropie
H(S) =n∑
i=1
−pi · log2pi
I Entropie H eines Systems SI Summe über Auftretenswahrscheinlichkeiten (relative
Häufigkeiten) mögliche EreignisseI Logarithmus zur Basis 2: Einheit Bit (Erwartete
Enkodier-Länge)
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Veranschaulichung Entropie
I S: Werfen einer Münze pKopf = pZahl = 0.5
H(Muenze) = [−0.5 · log20.5]︸ ︷︷ ︸Kopf
[−0.5 · log20.5]︸ ︷︷ ︸Zahl
= 1 bit
I Kodierung mit 1 Bit: 0 (Kopf), 1 (Zahl)I Manipulierte Münze mit 99% Kopf: H = 0.08 bitsI Manipulierte Münze mit 100% Kopf: H = 0 bits
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Entropie als Anzahl von Entscheidungsfragen
I Anzahl der Entscheidungsfragen bis zur völligen SicherheitI Raten einer Kartenfarbe: Kreuz, Pik, Herz, Karo
Herz
Karo
Kreuz
Pik
Herz?
Kreuz?
Farbe rot?
H(Karte) = 4× [−0.25 · log20.25] = −log20.25 = 2 bit
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Entropie bei der Tse-Tse-Fliege
H(S) = −58· log2
58− 3
8· log2
38≈ 0.95
Ohne Betrachtung eines Merkmals existiert ein leichter Vorteil,sich für die häufigere Klasse “Tse-Tse Fliege kommt nicht vor”zu entscheiden
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Information Gain eines Merkmals
Gain(S, A) = H(S)−v∑
i=1
|Sv ||S|
· H(Sv )︸ ︷︷ ︸“relative” Entropy of A
I Merkmal x2 “Latitude”H(x2 = 0) = −3
5 · log235 −
25 · log2
25 ≈
−0.6 · −0.74− 0.4 · −1.32 ≈ 0.972H(x2 = 1) = −0
3 · log203 −
33 · log2
33 = 0 · 1 = 0
(Anmerkung: wir setzen 0 · log 0 = 0)I Gewichtung: x2 = 0: 5
8 und x2 = 1: 38
Gain(S, x2) = 0.95− [(0.625 · 0.972) + (0.375 · 0)] ≈ 0.34
I In verschiedenen Unterbäumen können verschiedeneMerkmale den höchsten Gain liefern
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
BeispielGrundbegriffeZwei EB-AlgorithmenMerkmalsauswahl und Entropie
Anwendungen für EB-Verfahren
I Herzinfarktrisiko eines Patienten gegeben medizinischeDaten
I Interessensgebiet eines Kunden gegeben bisherigeKaufdaten
I Wetter gegeben Wetter der vorherigen Tage (sehr grob!)
Vorschlag für den UnterrichtI Mastermind-Spieler als inkrementeller
EntscheidungsbaumI Inkrementelles Verfahren: CAL2I Merkmalsauswahl: Information-Gain bezüglich der schon
vorhandenen Züge
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Neuronale Netze
I Alternativer Ansatz zum Konzeptlernen: PerzeptronI Idee: Modell einer NervenzelleI Neuronale Netze allgemein: Verschaltung vieler einfacher
“Neurone”I Methode zum Lernen komplexer FunktionenI Achtung: nur wenige neuronale Netze modellieren
tatsächlich biologisches Lernen!
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Modell eines NeuronsI Axon spaltet sich auf
und erreicht Dendritenanderer Neurone(Synapse)
I Jedes Neuron hatSynapsen mit10–100.000 anderenNeuronen
I Transmitter übertragen Impulse von Synapsen in Dentritenund verändern das elektrische Potential in der Soma.
I Falls eine bestimmte Schwelle erreicht wird, wird dasPotential über das Axon gesendet.(Erregungsfortpflanzung)
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Computer und Gehirn
Computer GehirnBerechnungseinheiten 1 CPU (> 107 Gates) 1011 NeuronenSpeichereinheiten 512 MB RAM 1011 Neuronen
500 GB Festplatte 1014 SynapsenTakt 10−8 sec 10−3 secÜbertragungskap. > 109 bits/sec > 1014 bits/sec
I Computer: seriell, schnellI Gehirn: parallel, eher langsamer, fehlertolerant
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Perzeptronx 1
x 2
x n
x 0 = 1
1
2
n
0w
w
w
w
Σxwi i
i=0
n
Σ { 1 if > 0
0 otherwiseo =
xwi ii=0
n
Σ
I Merkmale spannen euklidischen Raum auf
I Jedes Beispiel: Punkt im Merkmalsraum
I Lernen der Gewichte wi
I so dass positive und negative Beispiele durch eine Trennebenesepariert werden
I Schwellenfunktion (sgn zur Normierung des Outputs)
I Klassen werden als −1 und +1 repräsentiert
I funktioniert für linear separierbare Klassen
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Beispiel Trenngeradex2
x1
0
0
0
00
0
0
0
1
1
1
1
11
1
10
0
(−2−1
)· ~x + 3 = 0
I Multiplikativer Faktor:Steigung der Geraden
I Additiver Faktor:Verschiedbung vomNullpunkt
I Klassifikation: Skalarprodukt von Gewichtsvektor undEingabevektordarauf die Schwellenfunktion anwenden
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Perzeptron-Lernalgorithmus
I Erweitern des Vektor ~x um Konstante 1 and Stelle x0:Verschiebungsfaktor mit in Gewichtsvektor ziehen.
1. Initialisiere Gewichtsvektor ~w mit 0en2. Solange bis alle Beispiele korrekt klassifiziert
werden oder bis n Iterationen durchlaufen sind,wiederhole:2.1 Nimm das nächste Beispiel ~xi
2.2 Berechne o(~xi) = sgn(~w · ~xi)2.3 Wenn o(~xi) = Klasse k(~xi)
Dann weiterSonst
2.3.1 Wenn o(~xi) > k(~xi)Dann ~w := ~w − ~xi
2.3.2 Wenn o(~xi) < k(~xi)Dann ~w := ~w + ~xi
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Beispiel Perzeptron
I Klassische Anwendung: Lernen logischer FunktionenI Hier: NAND
x1 x2 k(x)1 0 0 12 0 1 13 1 0 14 1 1 0
Nach 6 Durchläufen durch dieTrainingsmenge werden alleBeispiele korrekt klassifiziert mit
~w :=
3−2−1
0@ 0
00
1A ·
0@ 100
1A = 0
Update:
~w :=
0@ 0 + 10 + 00 + 0
1AUte Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Beispiel Perzeptron
I Klassische Anwendung: Lernen logischer FunktionenI Hier: NAND
x1 x2 k(x)1 0 0 12 0 1 13 1 0 14 1 1 0
Nach 6 Durchläufen durch dieTrainingsmenge werden alleBeispiele korrekt klassifiziert mit
~w :=
3−2−1
0@ 1
00
1A ·
0@ 101
1A = 1 Update: –
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Beispiel Perzeptron
I Klassische Anwendung: Lernen logischer FunktionenI Hier: NAND
x1 x2 k(x)1 0 0 12 0 1 13 1 0 14 1 1 0
Nach 6 Durchläufen durch dieTrainingsmenge werden alleBeispiele korrekt klassifiziert mit
~w :=
3−2−1
0@ 1
00
1A ·
0@ 110
1A = 1 Update: –
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Beispiel Perzeptron
I Klassische Anwendung: Lernen logischer FunktionenI Hier: NAND
x1 x2 k(x)1 0 0 12 0 1 13 1 0 14 1 1 0
Nach 6 Durchläufen durch dieTrainingsmenge werden alleBeispiele korrekt klassifiziert mit
~w :=
3−2−1
0@ 1
00
1A ·
0@ 111
1A = 1
Update:
~w :=
0@ 1 − 10 − 10 − 1
1AUte Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Beispiel Perzeptron
I Klassische Anwendung: Lernen logischer FunktionenI Hier: NAND
x1 x2 k(x)1 0 0 12 0 1 13 1 0 14 1 1 0
Nach 6 Durchläufen durch dieTrainingsmenge werden alleBeispiele korrekt klassifiziert mit
~w :=
3−2−1
0@ 0
−1−1
1A ·
0@ 100
1A = 0
Update:
~w :=
0@ 0 + 1−1 + 0−1 + 0
1AUte Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Beispiel Perzeptron
I Klassische Anwendung: Lernen logischer FunktionenI Hier: NAND
x1 x2 k(x)1 0 0 12 0 1 13 1 0 14 1 1 0
Nach 6 Durchläufen durch dieTrainingsmenge werden alleBeispiele korrekt klassifiziert mit
~w :=
3−2−1
0@ 1
−1−1
1A ·
0@ 101
1A = 0
Update:
~w :=
0@ 1 + 1−1 + 0−1 + 1
1AUte Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Beispiel Perzeptron
I Klassische Anwendung: Lernen logischer FunktionenI Hier: NAND
x1 x2 k(x)1 0 0 12 0 1 13 1 0 14 1 1 0
Nach 6 Durchläufen durch dieTrainingsmenge werden alleBeispiele korrekt klassifiziert mit
~w :=
3−2−1
0@ 2
−10
1A ·
0@ 110
1A = 1 Update: –
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Beispiel Perzeptron
I Klassische Anwendung: Lernen logischer FunktionenI Hier: NAND
x1 x2 k(x)1 0 0 12 0 1 13 1 0 14 1 1 0
Nach 6 Durchläufen durch dieTrainingsmenge werden alleBeispiele korrekt klassifiziert mit
~w :=
3−2−1
0@ 2
−10
1A ·
0@ 111
1A = 1
Update:
~w :=
0@ 2 − 1−1 − 10 − 1
1AUte Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Beispiel Perzeptron
I Klassische Anwendung: Lernen logischer FunktionenI Hier: NAND
x1 x2 k(x)1 0 0 12 0 1 13 1 0 14 1 1 0
Nach 6 Durchläufen durch dieTrainingsmenge werden alleBeispiele korrekt klassifiziert mit
~w :=
3−2−1
0@ 1
−2−1
1A ·
0@ 111
1A = 1
Update:
~w :=
0@ 2 − 1−1 − 10 − 1
1AUte Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Kommentare Perzeptron
I Logische Funktion XOR nicht lernbar (nicht mit einerTrenngerade sparierbar)
I Verständnis des Perzeprons liefert Grundlage fürkomplexere Netze
I z.B. mehrschichtige feedforward Netze (wieBackpropagation)
I Mögliche Anwendung im Unterricht: Klassifikation voneinfachen Pixelbildern (z.B. Ziffer 0 oder 1)
Ute Schmid Maschinelles Lernen
Was ist Lernen?Entscheidungsbaum-Lernen
Perzeptron-Lernen
Computer und GehirnPerzeptron ArchitekturPerzeptron Algorithmus
Bezüge zum Schulunterricht
I Informationstheorie: Informatikunterricht?/Mathematik(Logarithmen)
I Neuronale Netze: BiologieI Perzeptron: Mathematik (Geradengleichungen)
Ute Schmid Maschinelles Lernen
Recommended