Upload
others
View
5
Download
0
Embed Size (px)
Citation preview
Commonsense Reasoning
Gabriele Kern-IsbernerLS 1 – Information Engineering
TU DortmundSommersemester 2016
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Kapitel 4
4. ProbabilistischeFolgerungsmodelle und -strategien
4.6 Probabilistische Inferenz auf der Basisoptimaler Entropie
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 169 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Verteilung – Beispiel
Nehmen wir an, unser Wissen besteht nur aus einer Regel:
R = (B|A)[0.8]
uber der Signatur Σ = A,B;
wir berechnen – mit Hilfe von SPIRIT – die Verteilung ME (R) = P :
ω P (ω) ω P (ω)
AB 0.361 AB 0.274
AB 0.091 AB 0.274
Fur A,B ergeben sich die Wahrscheinlichkeiten:
P (A) = 0.452, P (B) = 0.636
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 202 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Inferenz
Praktisches Arbeiten mit der ME -Methodik ist also einfach moglich, aberdas Verfahren wirkt intransparent.
Logische und formale Ansatze ermoglichen einen klareren Blick auf dieME -Methodik.
Logisch gestattet die ME -Methodik eine probabilistische Auswahl-Inferenz:
CME(R) = φ ∈ (L | L)prob | ME (R) |= φ
d.h. aus einer probabilistischen Regelbasis werden alle (bedingten)probabilistischen Formeln abgeleitet, die in der zugehorigen ME -Verteilungerfullt sind.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 203 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Beispiel – Grippe (Forts.)
R = (k|g) [1], (s|g) [0.9], (k|s) [0.8]
K G S P ∗ = ME (R)
0 0 0 0.18910 0 1 0.11850 1 0 00 1 1 01 0 0 0.18911 0 1 0.21251 1 0 0.02911 1 1 0.2617
P ∗(k|g) ≈ 0.57, P ∗(k|gs) ≈ 0.64⇒
CME(R) 3 (k|g)[0.57], (k|gs)[0.64], (s|g) [0.9], (kgs)[0.2125], . . .
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 204 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Eigenschaften der ME-Inferenz
Der ME -Inferenzoperator CME erfullt die folgenden Eigenschaften:
• Inklusion/Reflexivitat: R ⊆ CME(R).
• Kumulativitat, d.h. Schnitt und vorsichtige Monotonie:
R ⊆ S ⊆ CME(R) impliziert CME(R) = CME(S)
• Supraklassizitat, d.h. es gilt: Cnprob(R) ⊆ CME(R)
• Loop: Sind R1, . . . ,Rm ⊆ (L | L)prob mit Ri+1 ⊆ CME(Ri),i modulo m, dann gilt
CME(Ri) = CME(Rj) fur alle i, j = 1, . . . ,m
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Eigenschaften der ME-Inferenz
Der ME -Inferenzoperator CME erfullt die folgenden Eigenschaften:
• Inklusion/Reflexivitat: R ⊆ CME(R).
• Kumulativitat, d.h. Schnitt und vorsichtige Monotonie:
R ⊆ S ⊆ CME(R) impliziert CME(R) = CME(S)
• Supraklassizitat, d.h. es gilt: Cnprob(R) ⊆ CME(R)
• Loop: Sind R1, . . . ,Rm ⊆ (L | L)prob mit Ri+1 ⊆ CME(Ri),i modulo m, dann gilt
CME(Ri) = CME(Rj) fur alle i, j = 1, . . . ,m
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Eigenschaften der ME-Inferenz
Der ME -Inferenzoperator CME erfullt die folgenden Eigenschaften:
• Inklusion/Reflexivitat: R ⊆ CME(R).
• Kumulativitat, d.h. Schnitt und vorsichtige Monotonie:
R ⊆ S ⊆ CME(R) impliziert CME(R) = CME(S)
• Supraklassizitat, d.h. es gilt: Cnprob(R) ⊆ CME(R)
• Loop: Sind R1, . . . ,Rm ⊆ (L | L)prob mit Ri+1 ⊆ CME(Ri),i modulo m, dann gilt
CME(Ri) = CME(Rj) fur alle i, j = 1, . . . ,m
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Verteilung unter der Lupe
Fur R = (B1|A1) [x1], . . . , (Bn|An) [xn] erhalten wir
ME (R)(ω) = α0
∏
1≤i≤nω|=AiBi
α1−xii
∏
1≤i≤n
ω|=AiBi
α−xii
mit αi =xi
1− xi
∑ω|=AiBi
∏j 6=i
ω|=AjBj
α1−xj
j
∏j 6=i
ω|=AjBj
α−xj
j
∑ω|=AiBi
∏j 6=i
ω|=AjBj
α1−xj
j
∏j 6=i
ω|=AjBj
α−xj
j
,
und αi
> 0 : xi ∈ (0, 1)=∞ : xi = 1= 0 : xi = 0
, 1 ≤ i ≤ n.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln
Wir wollen im Folgenden fur (wichtige) Spezialfalle ME -Inferenzen“berechnen” und Ableitungsregeln aufstellen;
dabei benutzen wir diefolgende Notation
R : (B1|A1) [x1], . . . , (Bn|An) [xn]
(B∗1 |A∗1) [x∗1], . . . , (B∗m|A∗m) [x∗m]
genau dann, wenn
R = (B1|A1) [x1], . . . , (Bn|An) [xn]und ME (R) |= (B∗1 |A∗1) [x∗1], . . . (B∗m|A∗m) [x∗m]
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 207 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln
Wir wollen im Folgenden fur (wichtige) Spezialfalle ME -Inferenzen“berechnen” und Ableitungsregeln aufstellen; dabei benutzen wir diefolgende Notation
R : (B1|A1) [x1], . . . , (Bn|An) [xn]
(B∗1 |A∗1) [x∗1], . . . , (B∗m|A∗m) [x∗m]
genau dann, wenn
R = (B1|A1) [x1], . . . , (Bn|An) [xn]und ME (R) |= (B∗1 |A∗1) [x∗1], . . . (B∗m|A∗m) [x∗m]
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 207 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Mit Hilfe der obigen Formel lassen sich z.B. folgende Ableitungsregelnbeweisen:
Transitive Verkettung
R : (B|A)[x1], (C|B)[x2]
(C|A)[1
2(2x1x2 + 1− x1)]
Beispiel: A jung sein, B Single sein, C Kinder haben
R = (B|A)[0.9], (C|B)[0.85].Mit der Transitiven Verkettung errechnet man als ME -Folgerung
(C|A)[0.815] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Mit Hilfe der obigen Formel lassen sich z.B. folgende Ableitungsregelnbeweisen:
Transitive Verkettung
R : (B|A)[x1], (C|B)[x2]
(C|A)[1
2(2x1x2 + 1− x1)]
Beispiel: A jung sein, B Single sein, C Kinder haben
R = (B|A)[0.9], (C|B)[0.85].
Mit der Transitiven Verkettung errechnet man als ME -Folgerung
(C|A)[0.815] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Mit Hilfe der obigen Formel lassen sich z.B. folgende Ableitungsregelnbeweisen:
Transitive Verkettung
R : (B|A)[x1], (C|B)[x2]
(C|A)[1
2(2x1x2 + 1− x1)]
Beispiel: A jung sein, B Single sein, C Kinder haben
R = (B|A)[0.9], (C|B)[0.85].Mit der Transitiven Verkettung errechnet man als ME -Folgerung
(C|A)[0.815] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis
R : (B|A)[x1], (C|B)[x2]
(C|A)[1
2(2x1x2 + 1− x1)]
Die ME-Verteilung P ∗ = ME (R),R = (B|A)[x1], (C|B)[x2], kann wiefolgt berechnet werden:
ω P ∗ ω P ∗
ABC α0α1−x11 α1−x2
2 ABC α0α1−x22
ABC α0α1−x11 α−x22 ABC α0α
−x22
ABC α0α−x11 ABC α0
ABC α0α−x11 ABC α0
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 209 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis
R : (B|A)[x1], (C|B)[x2]
(C|A)[1
2(2x1x2 + 1− x1)]
Die ME-Verteilung P ∗ = ME (R),R = (B|A)[x1], (C|B)[x2], kann wiefolgt berechnet werden:
ω P ∗ ω P ∗
ABC α0α1−x11 α1−x2
2 ABC α0α1−x22
ABC α0α1−x11 α−x22 ABC α0α
−x22
ABC α0α−x11 ABC α0
ABC α0α−x11 ABC α0
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 209 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis (Forts.)
mit
α1 =x1
1− x1
2
α1−x22 + α−x22
=x1
1− x1αx22
2
α2 + 1
α2 =x2
1− x2
Damit berechnet man
P ∗(C|A) =P ∗(AC)
P ∗(A)
=P ∗(ABC) + P ∗(ABC)
P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)
=α1α
1−x22 + 1
α1α−x22 (α2 + 1) + 2
=1
2(2x1x2 + 1− x1)
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis (Forts.)
mit
α1 =x1
1− x1
2
α1−x22 + α−x22
=x1
1− x1αx22
2
α2 + 1
α2 =x2
1− x2
Damit berechnet man
P ∗(C|A) =P ∗(AC)
P ∗(A)
=P ∗(ABC) + P ∗(ABC)
P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)
=α1α
1−x22 + 1
α1α−x22 (α2 + 1) + 2
=1
2(2x1x2 + 1− x1)
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis (Forts.)
mit
α1 =x1
1− x1
2
α1−x22 + α−x22
=x1
1− x1αx22
2
α2 + 1
α2 =x2
1− x2
Damit berechnet man
P ∗(C|A) =P ∗(AC)
P ∗(A)
=P ∗(ABC) + P ∗(ABC)
P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)
=α1α
1−x22 + 1
α1α−x22 (α2 + 1) + 2
=1
2(2x1x2 + 1− x1)
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis (Forts.)
mit
α1 =x1
1− x1
2
α1−x22 + α−x22
=x1
1− x1αx22
2
α2 + 1
α2 =x2
1− x2
Damit berechnet man
P ∗(C|A) =P ∗(AC)
P ∗(A)
=P ∗(ABC) + P ∗(ABC)
P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)
=α1α
1−x22 + 1
α1α−x22 (α2 + 1) + 2
=1
2(2x1x2 + 1− x1)
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Transitive Verkettung – Beweis (Forts.)
mit
α1 =x1
1− x1
2
α1−x22 + α−x22
=x1
1− x1αx22
2
α2 + 1
α2 =x2
1− x2
Damit berechnet man
P ∗(C|A) =P ∗(AC)
P ∗(A)
=P ∗(ABC) + P ∗(ABC)
P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)
=α1α
1−x22 + 1
α1α−x22 (α2 + 1) + 2
=1
2(2x1x2 + 1− x1)
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Vorsichtige Monotonie
R : (B|A)[x1], (C|A)[x2]
(C|AB)[x2]
Beispiel: A Student sein, B jung sein, C Single sein
R = (B|A)[0.9], (C|A)[0.8]
Mit der vorsichtigen Monotonie folgt dann
(C|AB)[0.8] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Vorsichtige Monotonie
R : (B|A)[x1], (C|A)[x2]
(C|AB)[x2]
Beispiel: A Student sein, B jung sein, C Single sein
R = (B|A)[0.9], (C|A)[0.8]
Mit der vorsichtigen Monotonie folgt dann
(C|AB)[0.8] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Schnitt
R : (C|AB)[x1], (B|A)[x2]
(C|A)[1
2(2x1x2 + 1− x2)]
Beispiel: A Student sein, B jung sein, C Single sein
R = (C|AB)[0.8], (B|A)[0.9]
Mit der Schnittregel folgt dann
(C|A)[0.77] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Ableitungsregeln (Forts.)
Schnitt
R : (C|AB)[x1], (B|A)[x2]
(C|A)[1
2(2x1x2 + 1− x2)]
Beispiel: A Student sein, B jung sein, C Single sein
R = (C|AB)[0.8], (B|A)[0.9]
Mit der Schnittregel folgt dann
(C|A)[0.77] ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME und Commonsense Reasoning
Was hat ME mit Commonsense Reasoning zu tun?
Jeff Paris:Common sense and maximum entropy.Synthese 117, 75-93, 1999, Kluwer Academic Publishers
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 213 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME und Commonsense Reasoning
Was hat ME mit Commonsense Reasoning zu tun?
Jeff Paris:Common sense and maximum entropy.Synthese 117, 75-93, 1999, Kluwer Academic Publishers
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 213 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Symmetrie-Prinzip
Eines der grundlegendsten und einfachsten Prinzipien des CommonsenseReasoning ist das
Symmetrie-Prinzip
(Wesentlich) Ahnliche Probleme haben (im Wesentlichen) ahnlicheLosungen. (B. van Fraassen, 1989)
• Welche Ahnlichkeit ist hier gemeint?
• Was ist denn uberhaupt das Problem?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Symmetrie-Prinzip
Eines der grundlegendsten und einfachsten Prinzipien des CommonsenseReasoning ist das
Symmetrie-Prinzip
(Wesentlich) Ahnliche Probleme haben (im Wesentlichen) ahnlicheLosungen. (B. van Fraassen, 1989)
• Welche Ahnlichkeit ist hier gemeint?
• Was ist denn uberhaupt das Problem?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Symmetrie-Prinzip
Eines der grundlegendsten und einfachsten Prinzipien des CommonsenseReasoning ist das
Symmetrie-Prinzip
(Wesentlich) Ahnliche Probleme haben (im Wesentlichen) ahnlicheLosungen. (B. van Fraassen, 1989)
• Welche Ahnlichkeit ist hier gemeint?
• Was ist denn uberhaupt das Problem?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Intelligente Agenten in probabilistischer Umgebung
Nehmen wir an,
• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken,
und
• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,
dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.
Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Intelligente Agenten in probabilistischer Umgebung
Nehmen wir an,
• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken, und
• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,
dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.
Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Intelligente Agenten in probabilistischer Umgebung
Nehmen wir an,
• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken, und
• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,
dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.
Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Intelligente Agenten in probabilistischer Umgebung
Nehmen wir an,
• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken, und
• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,
dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.
Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 1/2
Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen
Form(Σ) Menge der Formeln uber Σ
P(Σ) Menge aller Wahrscheinlichkeitsverteilungenuber Σ, d.h.
P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑
i=1
pi = 1
KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ
Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 1/2
Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen
Form(Σ) Menge der Formeln uber ΣP(Σ) Menge aller Wahrscheinlichkeitsverteilungen
uber Σ, d.h.
P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑
i=1
pi = 1
KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ
Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 1/2
Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen
Form(Σ) Menge der Formeln uber ΣP(Σ) Menge aller Wahrscheinlichkeitsverteilungen
uber Σ, d.h.
P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑
i=1
pi = 1
KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ
Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 1/2
Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen
Form(Σ) Menge der Formeln uber ΣP(Σ) Menge aller Wahrscheinlichkeitsverteilungen
uber Σ, d.h.
P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑
i=1
pi = 1
KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ
Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 2/2
Definition 3 (Probabilistischer Inferenzprozess)
Ein probabilistischer Inferenzprozess NΣ ist eine Abbildung
NΣ : KB(Σ) → P(Σ),
R 7→ P,
die jeder konsistenten Regelbasis uber Σ eine Verteilung P uber Σzuordnet mit P |= R.
NΣ spezifiziert also einen induktiven Inferenzprozess.Welche CR-Prinzipien zeichnen einen “guten” Inferenzprozess aus?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 2/2
Definition 3 (Probabilistischer Inferenzprozess)
Ein probabilistischer Inferenzprozess NΣ ist eine Abbildung
NΣ : KB(Σ) → P(Σ),
R 7→ P,
die jeder konsistenten Regelbasis uber Σ eine Verteilung P uber Σzuordnet mit P |= R.
NΣ spezifiziert also einen induktiven Inferenzprozess.
Welche CR-Prinzipien zeichnen einen “guten” Inferenzprozess aus?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistischer Inferenzprozess 2/2
Definition 3 (Probabilistischer Inferenzprozess)
Ein probabilistischer Inferenzprozess NΣ ist eine Abbildung
NΣ : KB(Σ) → P(Σ),
R 7→ P,
die jeder konsistenten Regelbasis uber Σ eine Verteilung P uber Σzuordnet mit P |= R.
NΣ spezifiziert also einen induktiven Inferenzprozess.Welche CR-Prinzipien zeichnen einen “guten” Inferenzprozess aus?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 1: Irrelevante Information
Irrelevante-Information-Prinzip
Information uber ganz andere Themenbereiche soll das Ergebnis desInferenzprozesses nicht beeinflussen.
Seien Σ1,Σ2 zwei disjunkte Signaturen, Σ1 ∩ Σ2 = ∅, und seienR1 ∈ KB(Σ1),R2 ∈ KB(Σ2). Fur alle φ ∈ Form(Σ1) soll dann gelten:
NΣ1(R1)(φ) = NΣ1∪Σ2(R1 ∪R2)(φ).
Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signaturabhangen. Wir schreiben daher im Folgenden haufig N statt NΣ.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 1: Irrelevante Information
Irrelevante-Information-Prinzip
Information uber ganz andere Themenbereiche soll das Ergebnis desInferenzprozesses nicht beeinflussen.
Seien Σ1,Σ2 zwei disjunkte Signaturen, Σ1 ∩ Σ2 = ∅, und seienR1 ∈ KB(Σ1),R2 ∈ KB(Σ2). Fur alle φ ∈ Form(Σ1) soll dann gelten:
NΣ1(R1)(φ) = NΣ1∪Σ2(R1 ∪R2)(φ).
Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signaturabhangen. Wir schreiben daher im Folgenden haufig N statt NΣ.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 1: Irrelevante Information
Irrelevante-Information-Prinzip
Information uber ganz andere Themenbereiche soll das Ergebnis desInferenzprozesses nicht beeinflussen.
Seien Σ1,Σ2 zwei disjunkte Signaturen, Σ1 ∩ Σ2 = ∅, und seienR1 ∈ KB(Σ1),R2 ∈ KB(Σ2). Fur alle φ ∈ Form(Σ1) soll dann gelten:
NΣ1(R1)(φ) = NΣ1∪Σ2(R1 ∪R2)(φ).
Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signaturabhangen. Wir schreiben daher im Folgenden haufig N statt NΣ.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 2: Semantische Aquivalenz
Aquivalenz-Prinzip
Haben zwei Wissensbasen exakt die gleiche (semantische) Bedeutung, sosoll auch exakt das Gleiche gefolgert werden.
Beschreiben R1,R2 ∈ KB(Σ) denselben Losungsraum in P(Σ), so sollgelten N(R1) = N(R2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 219 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 2: Semantische Aquivalenz
Aquivalenz-Prinzip
Haben zwei Wissensbasen exakt die gleiche (semantische) Bedeutung, sosoll auch exakt das Gleiche gefolgert werden.
Beschreiben R1,R2 ∈ KB(Σ) denselben Losungsraum in P(Σ), so sollgelten N(R1) = N(R2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 219 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 3: Umbenennung
Umbenennungs-Prinzip
Eine isomorphe Umbennung der Variablen in der Wissensbasis soll keinenEffekt auf das Ergebnis der Inferenz haben.
Formalisierung: . . .
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 220 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 4: Kontext-Relativierung
Relativierungs-Prinzip
Information, die sich auf die Nichterfullung eines Kontextes bezieht, istirrelevant fur die kontextbezogene Inferenz.
Sei A ∈ Form(Σ), seien R1,R2 ∈ KB(Σ) die folgenden Wissensbasen:
R1 = A[x], (Bi ∧A)[xi], (Cj ∧ ¬A)[yj ]i,j ,R2 = A[x], (Bi ∧A)[xi]i.
Fur φ ∈ Form(Σ) soll dann gelten:
N(R1)(φ ∧A) = N(R2)(φ ∧A).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 4: Kontext-Relativierung
Relativierungs-Prinzip
Information, die sich auf die Nichterfullung eines Kontextes bezieht, istirrelevant fur die kontextbezogene Inferenz.
Sei A ∈ Form(Σ), seien R1,R2 ∈ KB(Σ) die folgenden Wissensbasen:
R1 = A[x], (Bi ∧A)[xi], (Cj ∧ ¬A)[yj ]i,j ,R2 = A[x], (Bi ∧A)[xi]i.
Fur φ ∈ Form(Σ) soll dann gelten:
N(R1)(φ ∧A) = N(R2)(φ ∧A).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 5: Hartnackigkeit
Hartnackigkeits-Prinzip
Information, die das bestatigt, was der Agent bereits glaubt, soll dasErgebnis der Inferenz nicht beeinflussen.
Sind R1,R2 ∈ KB(Σ), und erfullt N(R1) bereits R2, so soll gelten:
N(R1) = N(R1 ∪R2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 5: Hartnackigkeit
Hartnackigkeits-Prinzip
Information, die das bestatigt, was der Agent bereits glaubt, soll dasErgebnis der Inferenz nicht beeinflussen.
Sind R1,R2 ∈ KB(Σ), und erfullt N(R1) bereits R2, so soll gelten:
N(R1) = N(R1 ∪R2).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 6: Schwache Unabhangigkeit
Schwaches Unabhangigkeits-Prinzip
Information uber eine echte Alternative soll das Ergebnis der Inferenz nichtbeeinflussen.
Sei Σ = A,B,C, und seien R1,R2 ∈ KB(Σ) die folgendenWissensbasen:
R1 = A[x], B[y],R2 = A[x], B[y], C[z], AC[0].
Dann soll gelten N(R1)(A ∧B) = N(R2)(A ∧B).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 6: Schwache Unabhangigkeit
Schwaches Unabhangigkeits-Prinzip
Information uber eine echte Alternative soll das Ergebnis der Inferenz nichtbeeinflussen.
Sei Σ = A,B,C, und seien R1,R2 ∈ KB(Σ) die folgendenWissensbasen:
R1 = A[x], B[y],R2 = A[x], B[y], C[z], AC[0].
Dann soll gelten N(R1)(A ∧B) = N(R2)(A ∧B).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 7: Stetigkeit
Stetigkeits-Prinzip
Mikroskopisch kleine Anderungen in der Weltbeschreibung sollen keinemakroskopisch großen Anderungen in den Wahrscheinlichkeitenverursachen.
Fur jedes φ ∈ Form(Σ) hangt N(R)(φ) stetig von denWahrscheinlichkeiten des Faktenwissens in R ab.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
CR-Prinzip 7: Stetigkeit
Stetigkeits-Prinzip
Mikroskopisch kleine Anderungen in der Weltbeschreibung sollen keinemakroskopisch großen Anderungen in den Wahrscheinlichkeitenverursachen.
Fur jedes φ ∈ Form(Σ) hangt N(R)(φ) stetig von denWahrscheinlichkeiten des Faktenwissens in R ab.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Haupttheorem
Theorem 4
Jeder Inferenzprozess N , der alle CR-Prinzipien 1-7 erfullt, stimmt mit derME-Inferenz uberein.
Die ME -Methodik erlaubt also optimales Commonsense Reasoning improbabilistischen Bereich und wird durch die CR-Prinzipien 1-7 eindeutigbestimmt.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 225 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Fazit ME-Methodik 1/2
ME -Rehabilitation
Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahrenohne Sinn und Logik!
• Die ME -Methodik ermoglicht induktive Inferenz in ihrer allgemeinstenForm: Komplexe Wissenszustande (Wahrscheinlichkeitsverteilungen)konnen aus Information in komplexer Form (Mengen probabilistischerKonditionale) erzeugt werden.
• ME -Inferenz erfullt zahlreiche der Eigenschaften, die man annichtmonotone Inferenzrelationen i.Allg. stellt, z.B. die Kumulativitatund Loop.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Fazit ME-Methodik 1/2
ME -Rehabilitation
Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahrenohne Sinn und Logik!
• Die ME -Methodik ermoglicht induktive Inferenz in ihrer allgemeinstenForm: Komplexe Wissenszustande (Wahrscheinlichkeitsverteilungen)konnen aus Information in komplexer Form (Mengen probabilistischerKonditionale) erzeugt werden.
• ME -Inferenz erfullt zahlreiche der Eigenschaften, die man annichtmonotone Inferenzrelationen i.Allg. stellt, z.B. die Kumulativitatund Loop.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Fazit ME-Methodik 1/2
ME -Rehabilitation
Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahrenohne Sinn und Logik!
• Die ME -Methodik ermoglicht induktive Inferenz in ihrer allgemeinstenForm: Komplexe Wissenszustande (Wahrscheinlichkeitsverteilungen)konnen aus Information in komplexer Form (Mengen probabilistischerKonditionale) erzeugt werden.
• ME -Inferenz erfullt zahlreiche der Eigenschaften, die man annichtmonotone Inferenzrelationen i.Allg. stellt, z.B. die Kumulativitatund Loop.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Fazit ME-Methodik 2/2
• Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige derInferenzregeln simulieren (z.B. Vorsichtige Monotonie, Schnitt).
• Die ME -Methodik lasst sich als optimale Umsetzung desCommonsense Reasoning in einer probabilistischen Umgebungauffassen.
• Fur die Wissensrevision gibt es einen ebenso hochwertigen “großenBruder”, das Prinzip der minimalen Relativ-Entropie.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Fazit ME-Methodik 2/2
• Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige derInferenzregeln simulieren (z.B. Vorsichtige Monotonie, Schnitt).
• Die ME -Methodik lasst sich als optimale Umsetzung desCommonsense Reasoning in einer probabilistischen Umgebungauffassen.
• Fur die Wissensrevision gibt es einen ebenso hochwertigen “großenBruder”, das Prinzip der minimalen Relativ-Entropie.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232
Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie
Fazit ME-Methodik 2/2
• Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige derInferenzregeln simulieren (z.B. Vorsichtige Monotonie, Schnitt).
• Die ME -Methodik lasst sich als optimale Umsetzung desCommonsense Reasoning in einer probabilistischen Umgebungauffassen.
• Fur die Wissensrevision gibt es einen ebenso hochwertigen “großenBruder”, das Prinzip der minimalen Relativ-Entropie.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Ubersicht Kapitel 4 – Probabilistik
4.1 Einfuhrung und Ubersicht
4.2 Wahrscheinlichkeitstheorie und Commonsense Reasoning
4.3 Grundideen probabilistischen Schlussfolgerns
4.4 Schlussfolgern uber Unabhangigkeiten
4.5 Propagation in baumartigen Netzen
4.6 Probabilistische Inferenz auf der Basis optimaler Entropie
4.7 Schlussworte und Zusammenfassung
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 228 / 232
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Kapitel 4
4. ProbabilistischeFolgerungsmodelle und -strategien
4.7 Schlussworte und Zusammenfassung
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 229 / 232
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4
• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.
• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.
• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.
• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4
• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.
• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.
• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.
• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4
• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.
• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.
• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.
• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4
• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.
• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.
• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.
• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4 (Forts.)
• Das Problem unvollstandiger probabilistischer Informationen wird inBayes-Netzen durch klare Spezifikationsvorgaben und die Annahmebedingter Unabhangigkeiten gelost.
• Mit Hilfe der ME-Methodik kann aus einer Menge probabilistischerRegeln (unvollstandige Information!) ohne weitere Annahmen einevollstandige Verteilung aufgebaut werden. Bedingte Unabhangigkeitenentstehen hier aus dem Kontext heraus, werden aber nichtvorausgesetzt.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 231 / 232
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4 (Forts.)
• Das Problem unvollstandiger probabilistischer Informationen wird inBayes-Netzen durch klare Spezifikationsvorgaben und die Annahmebedingter Unabhangigkeiten gelost.
• Mit Hilfe der ME-Methodik kann aus einer Menge probabilistischerRegeln (unvollstandige Information!) ohne weitere Annahmen einevollstandige Verteilung aufgebaut werden. Bedingte Unabhangigkeitenentstehen hier aus dem Kontext heraus, werden aber nichtvorausgesetzt.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 231 / 232
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4 (Forts.)
• Bayessche Netze modellieren bedingte Unabhangigkeiten, wahrend dieME -Methodik sich auf die konsequente Ausnutzung bedingterAbhangigkeiten konzentriert.
• Die ME -Inferenz ist ein machtige Methode fur die probabilistischeWissensreprasentation mit hervorragenden Eigenschaften.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 232 / 232
Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung
Zusammenfassung Kapitel 4 (Forts.)
• Bayessche Netze modellieren bedingte Unabhangigkeiten, wahrend dieME -Methodik sich auf die konsequente Ausnutzung bedingterAbhangigkeiten konzentriert.
• Die ME -Inferenz ist ein machtige Methode fur die probabilistischeWissensreprasentation mit hervorragenden Eigenschaften.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 232 / 232
Commonsense Reasoning – Ubersicht
• Ubersicht, Organisatorisches und Einfuhrung
• Nichtklassisches Schlussfolgern
• Rangfunktionen – ein einfaches epistemisches Modell
• Probabilistische Folgerungsmodelle und -strategien
• Qualitative und quantitative Wissensreprasentation
• Argumentation
• (Commonsense Reasoning in Multi-Agentensystemen)
• Schlussteil und Prufungsvorbereitung
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 2 / 51
Kapitel 5
5. Qualitative und quantitativeWissensreprasentation
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 3 / 51
Ubersicht Kapitel 5 – Qualitativ und Quantitativ
5.1 Qualitative Wahrscheinlichkeiten
5.2 Nichtmonotonie in der Probabilistik
5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten
5.4 Konditionale Ereignisse
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51
Ubersicht Kapitel 5 – Qualitativ und Quantitativ
5.1 Qualitative Wahrscheinlichkeiten
5.2 Nichtmonotonie in der Probabilistik
5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten
5.4 Konditionale Ereignisse
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51
Ubersicht Kapitel 5 – Qualitativ und Quantitativ
5.1 Qualitative Wahrscheinlichkeiten
5.2 Nichtmonotonie in der Probabilistik
5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten
5.4 Konditionale Ereignisse
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51
Ubersicht Kapitel 5 – Qualitativ und Quantitativ
5.1 Qualitative Wahrscheinlichkeiten
5.2 Nichtmonotonie in der Probabilistik
5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten
5.4 Konditionale Ereignisse
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51
Ubersicht Kapitel 5 – Qualitativ und Quantitativ
5.1 Qualitative Wahrscheinlichkeiten
5.2 Nichtmonotonie in der Probabilistik
5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten
5.4 Konditionale Ereignisse
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 5 / 51
Kapitel 5
5. Qualitative und quantitativeWissensreprasentation
5.1 Qualitative Wahrscheinlichkeiten
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 6 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Punktgenaue Wahrscheinlichkeiten . . .
Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.
Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77].
♣
Warum nicht 0.78, 0.80 oder 0.75?
Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?
Welche Fehlerquellen stellen Rundungen dar?
. . . oder darf’s auch ruhig ein bisschen mehr sein?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Punktgenaue Wahrscheinlichkeiten . . .
Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.
Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣
Warum nicht 0.78, 0.80 oder 0.75?
Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?
Welche Fehlerquellen stellen Rundungen dar?
. . . oder darf’s auch ruhig ein bisschen mehr sein?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Punktgenaue Wahrscheinlichkeiten . . .
Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.
Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣
Warum nicht 0.78, 0.80 oder 0.75?
Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?
Welche Fehlerquellen stellen Rundungen dar?
. . . oder darf’s auch ruhig ein bisschen mehr sein?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Punktgenaue Wahrscheinlichkeiten . . .
Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.
Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣
Warum nicht 0.78, 0.80 oder 0.75?
Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?
Welche Fehlerquellen stellen Rundungen dar?
. . . oder darf’s auch ruhig ein bisschen mehr sein?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Punktgenaue Wahrscheinlichkeiten . . .
Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.
Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣
Warum nicht 0.78, 0.80 oder 0.75?
Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?
Welche Fehlerquellen stellen Rundungen dar?
. . . oder darf’s auch ruhig ein bisschen mehr sein?
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Infinitesimale Wahrscheinlichkeiten
Ziel:Man interessiert sich nicht fur die (konkrete) Wahrscheinlichkeit, sondernnur fur die Großenordnung der Wahrscheinlichkeit.
Idee:
• Drucke P (ω) als Polynom in ε aus, wobei ε eine “kleine”, positiveZahl bzw. ein Infinitesimal ist (d.h. P wird durch ε parametrisiert);
• Infinitesimale sind stetige Funktionen ε : (0, 1)→ (0, 1) mitlimx→0 ε(x) = 0, z.B. ε(x) = x2.
• betrachte dann den Grenzwert ε→ 0, um eine qualitative Abstraktionvon P (ω) zu bekommen.
Beispiel: Man mochte nicht zwischen den Wahrscheinlichkeiten 0.856 und0.858 unterscheiden, sie sind (offensichtlich) von der gleichenGroßenordnung. ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Infinitesimale Wahrscheinlichkeiten
Ziel:Man interessiert sich nicht fur die (konkrete) Wahrscheinlichkeit, sondernnur fur die Großenordnung der Wahrscheinlichkeit.
Idee:
• Drucke P (ω) als Polynom in ε aus, wobei ε eine “kleine”, positiveZahl bzw. ein Infinitesimal ist (d.h. P wird durch ε parametrisiert);
• Infinitesimale sind stetige Funktionen ε : (0, 1)→ (0, 1) mitlimx→0 ε(x) = 0, z.B. ε(x) = x2.
• betrachte dann den Grenzwert ε→ 0, um eine qualitative Abstraktionvon P (ω) zu bekommen.
Beispiel: Man mochte nicht zwischen den Wahrscheinlichkeiten 0.856 und0.858 unterscheiden, sie sind (offensichtlich) von der gleichenGroßenordnung. ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Infinitesimale Wahrscheinlichkeiten
Ziel:Man interessiert sich nicht fur die (konkrete) Wahrscheinlichkeit, sondernnur fur die Großenordnung der Wahrscheinlichkeit.
Idee:
• Drucke P (ω) als Polynom in ε aus, wobei ε eine “kleine”, positiveZahl bzw. ein Infinitesimal ist (d.h. P wird durch ε parametrisiert);
• Infinitesimale sind stetige Funktionen ε : (0, 1)→ (0, 1) mitlimx→0 ε(x) = 0, z.B. ε(x) = x2.
• betrachte dann den Grenzwert ε→ 0, um eine qualitative Abstraktionvon P (ω) zu bekommen.
Beispiel: Man mochte nicht zwischen den Wahrscheinlichkeiten 0.856 und0.858 unterscheiden, sie sind (offensichtlich) von der gleichenGroßenordnung. ♣
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 1/5
Die Großenordnung κP einer parametrisierten (infinitesimalen)Wahrscheinlichkeit
P (ω) = (1−)a0ε0 + a1ε
1 + a2ε2 + . . .
wird definiert als
κP (ω) =
minn ∈ N | lim
ε→0
P (ω)εn 6= 0, P (ω) > 0
∞, P (ω) = 0
D.h. fur P (ω) = a0ε0 + a1ε
1 + a2ε2 + . . .
ist κP (ω) = mini|ai 6= 0
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 1/5
Die Großenordnung κP einer parametrisierten (infinitesimalen)Wahrscheinlichkeit
P (ω) = (1−)a0ε0 + a1ε
1 + a2ε2 + . . .
wird definiert als
κP (ω) =
minn ∈ N | lim
ε→0
P (ω)εn 6= 0, P (ω) > 0
∞, P (ω) = 0
D.h. fur P (ω) = a0ε0 + a1ε
1 + a2ε2 + . . .
ist κP (ω) = mini|ai 6= 0
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Notizen
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 2/5
Fur infinitesimale parametrisierte Wahrscheinlichkeiten P hatP (ω1) + P (ω2) die Großenordnung
minκP (ω1), κP (ω2);
die Großenordnung von Formeln A kann also definiert werden durch
κP (A) = minκP (ω) | ω |= A
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 10 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 2/5
Fur infinitesimale parametrisierte Wahrscheinlichkeiten P hatP (ω1) + P (ω2) die Großenordnung
minκP (ω1), κP (ω2);
die Großenordnung von Formeln A kann also definiert werden durch
κP (A) = minκP (ω) | ω |= A
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 10 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 3/5
Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so druckt κPWahrscheinlichkeiten qualitativ aus:
P (A) ≈ ε0 A und ¬A sind moglich κP (A) = 0
P (A) ≈ ε1 ¬A wird geglaubt κP (A) = 1
P (A) ≈ ε2 ¬A wird fest geglaubt κP (A) = 2
P (A) ≈ ε3 ¬A ist fast sicher κP (A) = 3...
......
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 3/5
Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so druckt κPWahrscheinlichkeiten qualitativ aus:
P (A) ≈ ε0 A und ¬A sind moglich κP (A) = 0
P (A) ≈ ε1 ¬A wird geglaubt κP (A) = 1
P (A) ≈ ε2 ¬A wird fest geglaubt κP (A) = 2
P (A) ≈ ε3 ¬A ist fast sicher κP (A) = 3...
......
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 3/5
Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so druckt κPWahrscheinlichkeiten qualitativ aus:
P (A) ≈ ε0 A und ¬A sind moglich κP (A) = 0
P (A) ≈ ε1 ¬A wird geglaubt κP (A) = 1
P (A) ≈ ε2 ¬A wird fest geglaubt κP (A) = 2
P (A) ≈ ε3 ¬A ist fast sicher κP (A) = 3...
......
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 4/5
Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben;
sie haben die folgenden Eigenschaften:
• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )
• κ(A ∨B) = minκ(A), κ(B).
Qualitative Wahrscheinlichkeiten sind OCF!
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 4/5
Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:
• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )
• κ(A ∨B) = minκ(A), κ(B).
Qualitative Wahrscheinlichkeiten sind OCF!
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 4/5
Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:
• sie sind Funktionen κ : Ω→ N ∪ ∞;
• ( minκ(ω) : ω ∈ Ω = 0; )
• κ(A ∨B) = minκ(A), κ(B).
Qualitative Wahrscheinlichkeiten sind OCF!
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 4/5
Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:
• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )
• κ(A ∨B) = minκ(A), κ(B).
Qualitative Wahrscheinlichkeiten sind OCF!
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 4/5
Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:
• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )
• κ(A ∨B) = minκ(A), κ(B).
Qualitative Wahrscheinlichkeiten sind OCF!
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 4/5
Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:
• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )
• κ(A ∨B) = minκ(A), κ(B).
Qualitative Wahrscheinlichkeiten sind OCF!
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 5/5
Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:
κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1
κ(A) = minω|=A κ(ω) P (A) =∑
ω|=A P (ω)
κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)
Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.
Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 5/5
Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:
κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1
κ(A) = minω|=A κ(ω) P (A) =∑
ω|=A P (ω)
κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)
Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.
Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 5/5
Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:
κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1
κ(A) = minω|=A κ(ω) P (A) =∑
ω|=A P (ω)
κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)
Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.
Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 5/5
Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:
κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1
κ(A) = minω|=A κ(ω) P (A) =∑
ω|=A P (ω)
κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)
Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.
Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
Qualitative Wahrscheinlichkeiten 5/5
Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:
κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1
κ(A) = minω|=A κ(ω) P (A) =∑
ω|=A P (ω)
κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)
Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.
Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten
OCF’s und Wahrscheinlichkeiten – Beispiel
Folgende qualitative Umsetzung von Wahrscheinlichkeiten in Rangzahlensind beispielsweise denkbar:
W’keit Rangzahl Bedeutung
P (ω) ≈ 0.1 κ(ω) = 0 normalP (ω) ≈ 0.01 κ(ω) = 1 seltenP (ω) ≈ 0.001 κ(ω) = 2 unwahrscheinlichP (ω) ≈ 0.0001 κ(ω) = 3 fast unmoglich...
......
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 14 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
Ubersicht Kapitel 5 – Qualitativ und Quantitativ
5.1 Qualitative Wahrscheinlichkeiten
5.2 Nichtmonotonie in der Probabilistik
5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten
5.4 Konditionale Ereignisse
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 15 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
Kapitel 5
5. Qualitative und quantitativeWissensreprasentation
5.2 Nichtmonotonie in der Probabilistik
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 16 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 1/2
Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:
A |∼P B gdw. “Wenn A, dann meistens B”
gdw. P (B|A) > 0.5
NMR-Inferenzkriterien erfullt?
• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,
Studenten |∼P Schach,
aber Studenten ∧ Schach 6|∼P Fussball
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 1/2
Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:
A |∼P B gdw. “Wenn A, dann meistens B”
gdw. P (B|A) > 0.5
NMR-Inferenzkriterien erfullt?
• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,
Studenten |∼P Schach,
aber Studenten ∧ Schach 6|∼P Fussball
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 1/2
Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:
A |∼P B gdw. “Wenn A, dann meistens B”
gdw. P (B|A) > 0.5
NMR-Inferenzkriterien erfullt?
• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!
Beispiel: Studenten |∼P Fussball,Studenten |∼P Schach,
aber Studenten ∧ Schach 6|∼P Fussball
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 1/2
Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:
A |∼P B gdw. “Wenn A, dann meistens B”
gdw. P (B|A) > 0.5
NMR-Inferenzkriterien erfullt?
• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,
Studenten |∼P Schach,
aber Studenten ∧ Schach 6|∼P Fussball
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 1/2
Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:
A |∼P B gdw. “Wenn A, dann meistens B”
gdw. P (B|A) > 0.5
NMR-Inferenzkriterien erfullt?
• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,
Studenten |∼P Schach,
aber Studenten ∧ Schach 6|∼P Fussball
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 2/2
• Schnitt ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|AB) > 0.5, aber P (C|A) < 0.5moglich!
Beispiel:st Bauchschmerzen |∼P Appendicitis,
st Bauchschmerzen ∧ Appendicitis |∼P bald wieder gesund,
aber st Bauchschmerzen 6|∼P bald wieder gesund
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 2/2
• Schnitt ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|AB) > 0.5, aber P (C|A) < 0.5moglich!Beispiel:
st Bauchschmerzen |∼P Appendicitis,st Bauchschmerzen ∧ Appendicitis |∼P bald wieder gesund,
aber st Bauchschmerzen 6|∼P bald wieder gesund
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51
Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik
NMR in der Probabilistik 2/2
• Schnitt ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|AB) > 0.5, aber P (C|A) < 0.5moglich!Beispiel:
st Bauchschmerzen |∼P Appendicitis,st Bauchschmerzen ∧ Appendicitis |∼P bald wieder gesund,
aber st Bauchschmerzen 6|∼P bald wieder gesund
G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51