140
Commonsense Reasoning Gabriele Kern-Isberner LS 1 – Information Engineering TU Dortmund Sommersemester 2016 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232

Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

  • Upload
    others

  • View
    5

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Commonsense Reasoning

Gabriele Kern-IsbernerLS 1 – Information Engineering

TU DortmundSommersemester 2016

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232

Page 2: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Kapitel 4

4. ProbabilistischeFolgerungsmodelle und -strategien

4.6 Probabilistische Inferenz auf der Basisoptimaler Entropie

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 169 / 232

Page 3: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Verteilung – Beispiel

Nehmen wir an, unser Wissen besteht nur aus einer Regel:

R = (B|A)[0.8]

uber der Signatur Σ = A,B;

wir berechnen – mit Hilfe von SPIRIT – die Verteilung ME (R) = P :

ω P (ω) ω P (ω)

AB 0.361 AB 0.274

AB 0.091 AB 0.274

Fur A,B ergeben sich die Wahrscheinlichkeiten:

P (A) = 0.452, P (B) = 0.636

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 202 / 232

Page 4: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Inferenz

Praktisches Arbeiten mit der ME -Methodik ist also einfach moglich, aberdas Verfahren wirkt intransparent.

Logische und formale Ansatze ermoglichen einen klareren Blick auf dieME -Methodik.

Logisch gestattet die ME -Methodik eine probabilistische Auswahl-Inferenz:

CME(R) = φ ∈ (L | L)prob | ME (R) |= φ

d.h. aus einer probabilistischen Regelbasis werden alle (bedingten)probabilistischen Formeln abgeleitet, die in der zugehorigen ME -Verteilungerfullt sind.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 203 / 232

Page 5: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Beispiel – Grippe (Forts.)

R = (k|g) [1], (s|g) [0.9], (k|s) [0.8]

K G S P ∗ = ME (R)

0 0 0 0.18910 0 1 0.11850 1 0 00 1 1 01 0 0 0.18911 0 1 0.21251 1 0 0.02911 1 1 0.2617

P ∗(k|g) ≈ 0.57, P ∗(k|gs) ≈ 0.64⇒

CME(R) 3 (k|g)[0.57], (k|gs)[0.64], (s|g) [0.9], (kgs)[0.2125], . . .

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 204 / 232

Page 6: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Eigenschaften der ME-Inferenz

Der ME -Inferenzoperator CME erfullt die folgenden Eigenschaften:

• Inklusion/Reflexivitat: R ⊆ CME(R).

• Kumulativitat, d.h. Schnitt und vorsichtige Monotonie:

R ⊆ S ⊆ CME(R) impliziert CME(R) = CME(S)

• Supraklassizitat, d.h. es gilt: Cnprob(R) ⊆ CME(R)

• Loop: Sind R1, . . . ,Rm ⊆ (L | L)prob mit Ri+1 ⊆ CME(Ri),i modulo m, dann gilt

CME(Ri) = CME(Rj) fur alle i, j = 1, . . . ,m

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232

Page 7: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Eigenschaften der ME-Inferenz

Der ME -Inferenzoperator CME erfullt die folgenden Eigenschaften:

• Inklusion/Reflexivitat: R ⊆ CME(R).

• Kumulativitat, d.h. Schnitt und vorsichtige Monotonie:

R ⊆ S ⊆ CME(R) impliziert CME(R) = CME(S)

• Supraklassizitat, d.h. es gilt: Cnprob(R) ⊆ CME(R)

• Loop: Sind R1, . . . ,Rm ⊆ (L | L)prob mit Ri+1 ⊆ CME(Ri),i modulo m, dann gilt

CME(Ri) = CME(Rj) fur alle i, j = 1, . . . ,m

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232

Page 8: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Eigenschaften der ME-Inferenz

Der ME -Inferenzoperator CME erfullt die folgenden Eigenschaften:

• Inklusion/Reflexivitat: R ⊆ CME(R).

• Kumulativitat, d.h. Schnitt und vorsichtige Monotonie:

R ⊆ S ⊆ CME(R) impliziert CME(R) = CME(S)

• Supraklassizitat, d.h. es gilt: Cnprob(R) ⊆ CME(R)

• Loop: Sind R1, . . . ,Rm ⊆ (L | L)prob mit Ri+1 ⊆ CME(Ri),i modulo m, dann gilt

CME(Ri) = CME(Rj) fur alle i, j = 1, . . . ,m

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232

Page 9: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232

Page 10: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 205 / 232

Page 11: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Verteilung unter der Lupe

Fur R = (B1|A1) [x1], . . . , (Bn|An) [xn] erhalten wir

ME (R)(ω) = α0

1≤i≤nω|=AiBi

α1−xii

1≤i≤n

ω|=AiBi

α−xii

mit αi =xi

1− xi

∑ω|=AiBi

∏j 6=i

ω|=AjBj

α1−xj

j

∏j 6=i

ω|=AjBj

α−xj

j

∑ω|=AiBi

∏j 6=i

ω|=AjBj

α1−xj

j

∏j 6=i

ω|=AjBj

α−xj

j

,

und αi

> 0 : xi ∈ (0, 1)=∞ : xi = 1= 0 : xi = 0

, 1 ≤ i ≤ n.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232

Page 12: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232

Page 13: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232

Page 14: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln

Wir wollen im Folgenden fur (wichtige) Spezialfalle ME -Inferenzen“berechnen” und Ableitungsregeln aufstellen;

dabei benutzen wir diefolgende Notation

R : (B1|A1) [x1], . . . , (Bn|An) [xn]

(B∗1 |A∗1) [x∗1], . . . , (B∗m|A∗m) [x∗m]

genau dann, wenn

R = (B1|A1) [x1], . . . , (Bn|An) [xn]und ME (R) |= (B∗1 |A∗1) [x∗1], . . . (B∗m|A∗m) [x∗m]

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 207 / 232

Page 15: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln

Wir wollen im Folgenden fur (wichtige) Spezialfalle ME -Inferenzen“berechnen” und Ableitungsregeln aufstellen; dabei benutzen wir diefolgende Notation

R : (B1|A1) [x1], . . . , (Bn|An) [xn]

(B∗1 |A∗1) [x∗1], . . . , (B∗m|A∗m) [x∗m]

genau dann, wenn

R = (B1|A1) [x1], . . . , (Bn|An) [xn]und ME (R) |= (B∗1 |A∗1) [x∗1], . . . (B∗m|A∗m) [x∗m]

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 207 / 232

Page 16: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Mit Hilfe der obigen Formel lassen sich z.B. folgende Ableitungsregelnbeweisen:

Transitive Verkettung

R : (B|A)[x1], (C|B)[x2]

(C|A)[1

2(2x1x2 + 1− x1)]

Beispiel: A jung sein, B Single sein, C Kinder haben

R = (B|A)[0.9], (C|B)[0.85].Mit der Transitiven Verkettung errechnet man als ME -Folgerung

(C|A)[0.815] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232

Page 17: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Mit Hilfe der obigen Formel lassen sich z.B. folgende Ableitungsregelnbeweisen:

Transitive Verkettung

R : (B|A)[x1], (C|B)[x2]

(C|A)[1

2(2x1x2 + 1− x1)]

Beispiel: A jung sein, B Single sein, C Kinder haben

R = (B|A)[0.9], (C|B)[0.85].

Mit der Transitiven Verkettung errechnet man als ME -Folgerung

(C|A)[0.815] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232

Page 18: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Mit Hilfe der obigen Formel lassen sich z.B. folgende Ableitungsregelnbeweisen:

Transitive Verkettung

R : (B|A)[x1], (C|B)[x2]

(C|A)[1

2(2x1x2 + 1− x1)]

Beispiel: A jung sein, B Single sein, C Kinder haben

R = (B|A)[0.9], (C|B)[0.85].Mit der Transitiven Verkettung errechnet man als ME -Folgerung

(C|A)[0.815] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232

Page 19: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis

R : (B|A)[x1], (C|B)[x2]

(C|A)[1

2(2x1x2 + 1− x1)]

Die ME-Verteilung P ∗ = ME (R),R = (B|A)[x1], (C|B)[x2], kann wiefolgt berechnet werden:

ω P ∗ ω P ∗

ABC α0α1−x11 α1−x2

2 ABC α0α1−x22

ABC α0α1−x11 α−x22 ABC α0α

−x22

ABC α0α−x11 ABC α0

ABC α0α−x11 ABC α0

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 209 / 232

Page 20: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis

R : (B|A)[x1], (C|B)[x2]

(C|A)[1

2(2x1x2 + 1− x1)]

Die ME-Verteilung P ∗ = ME (R),R = (B|A)[x1], (C|B)[x2], kann wiefolgt berechnet werden:

ω P ∗ ω P ∗

ABC α0α1−x11 α1−x2

2 ABC α0α1−x22

ABC α0α1−x11 α−x22 ABC α0α

−x22

ABC α0α−x11 ABC α0

ABC α0α−x11 ABC α0

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 209 / 232

Page 21: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis (Forts.)

mit

α1 =x1

1− x1

2

α1−x22 + α−x22

=x1

1− x1αx22

2

α2 + 1

α2 =x2

1− x2

Damit berechnet man

P ∗(C|A) =P ∗(AC)

P ∗(A)

=P ∗(ABC) + P ∗(ABC)

P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)

=α1α

1−x22 + 1

α1α−x22 (α2 + 1) + 2

=1

2(2x1x2 + 1− x1)

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Page 22: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis (Forts.)

mit

α1 =x1

1− x1

2

α1−x22 + α−x22

=x1

1− x1αx22

2

α2 + 1

α2 =x2

1− x2

Damit berechnet man

P ∗(C|A) =P ∗(AC)

P ∗(A)

=P ∗(ABC) + P ∗(ABC)

P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)

=α1α

1−x22 + 1

α1α−x22 (α2 + 1) + 2

=1

2(2x1x2 + 1− x1)

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Page 23: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis (Forts.)

mit

α1 =x1

1− x1

2

α1−x22 + α−x22

=x1

1− x1αx22

2

α2 + 1

α2 =x2

1− x2

Damit berechnet man

P ∗(C|A) =P ∗(AC)

P ∗(A)

=P ∗(ABC) + P ∗(ABC)

P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)

=α1α

1−x22 + 1

α1α−x22 (α2 + 1) + 2

=1

2(2x1x2 + 1− x1)

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Page 24: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis (Forts.)

mit

α1 =x1

1− x1

2

α1−x22 + α−x22

=x1

1− x1αx22

2

α2 + 1

α2 =x2

1− x2

Damit berechnet man

P ∗(C|A) =P ∗(AC)

P ∗(A)

=P ∗(ABC) + P ∗(ABC)

P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)

=α1α

1−x22 + 1

α1α−x22 (α2 + 1) + 2

=1

2(2x1x2 + 1− x1)

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Page 25: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Transitive Verkettung – Beweis (Forts.)

mit

α1 =x1

1− x1

2

α1−x22 + α−x22

=x1

1− x1αx22

2

α2 + 1

α2 =x2

1− x2

Damit berechnet man

P ∗(C|A) =P ∗(AC)

P ∗(A)

=P ∗(ABC) + P ∗(ABC)

P ∗(ABC) + P ∗(ABC) + P ∗(ABC) + P ∗(ABC)

=α1α

1−x22 + 1

α1α−x22 (α2 + 1) + 2

=1

2(2x1x2 + 1− x1)

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Page 26: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Page 27: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

Page 28: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Vorsichtige Monotonie

R : (B|A)[x1], (C|A)[x2]

(C|AB)[x2]

Beispiel: A Student sein, B jung sein, C Single sein

R = (B|A)[0.9], (C|A)[0.8]

Mit der vorsichtigen Monotonie folgt dann

(C|AB)[0.8] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232

Page 29: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Vorsichtige Monotonie

R : (B|A)[x1], (C|A)[x2]

(C|AB)[x2]

Beispiel: A Student sein, B jung sein, C Single sein

R = (B|A)[0.9], (C|A)[0.8]

Mit der vorsichtigen Monotonie folgt dann

(C|AB)[0.8] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232

Page 30: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232

Page 31: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232

Page 32: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Schnitt

R : (C|AB)[x1], (B|A)[x2]

(C|A)[1

2(2x1x2 + 1− x2)]

Beispiel: A Student sein, B jung sein, C Single sein

R = (C|AB)[0.8], (B|A)[0.9]

Mit der Schnittregel folgt dann

(C|A)[0.77] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Page 33: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME-Ableitungsregeln (Forts.)

Schnitt

R : (C|AB)[x1], (B|A)[x2]

(C|A)[1

2(2x1x2 + 1− x2)]

Beispiel: A Student sein, B jung sein, C Single sein

R = (C|AB)[0.8], (B|A)[0.9]

Mit der Schnittregel folgt dann

(C|A)[0.77] ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Page 34: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Page 35: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Page 36: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Page 37: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Page 38: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Page 39: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

Page 40: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME und Commonsense Reasoning

Was hat ME mit Commonsense Reasoning zu tun?

Jeff Paris:Common sense and maximum entropy.Synthese 117, 75-93, 1999, Kluwer Academic Publishers

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 213 / 232

Page 41: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

ME und Commonsense Reasoning

Was hat ME mit Commonsense Reasoning zu tun?

Jeff Paris:Common sense and maximum entropy.Synthese 117, 75-93, 1999, Kluwer Academic Publishers

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 213 / 232

Page 42: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Symmetrie-Prinzip

Eines der grundlegendsten und einfachsten Prinzipien des CommonsenseReasoning ist das

Symmetrie-Prinzip

(Wesentlich) Ahnliche Probleme haben (im Wesentlichen) ahnlicheLosungen. (B. van Fraassen, 1989)

• Welche Ahnlichkeit ist hier gemeint?

• Was ist denn uberhaupt das Problem?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232

Page 43: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Symmetrie-Prinzip

Eines der grundlegendsten und einfachsten Prinzipien des CommonsenseReasoning ist das

Symmetrie-Prinzip

(Wesentlich) Ahnliche Probleme haben (im Wesentlichen) ahnlicheLosungen. (B. van Fraassen, 1989)

• Welche Ahnlichkeit ist hier gemeint?

• Was ist denn uberhaupt das Problem?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232

Page 44: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Symmetrie-Prinzip

Eines der grundlegendsten und einfachsten Prinzipien des CommonsenseReasoning ist das

Symmetrie-Prinzip

(Wesentlich) Ahnliche Probleme haben (im Wesentlichen) ahnlicheLosungen. (B. van Fraassen, 1989)

• Welche Ahnlichkeit ist hier gemeint?

• Was ist denn uberhaupt das Problem?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232

Page 45: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Intelligente Agenten in probabilistischer Umgebung

Nehmen wir an,

• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken,

und

• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,

dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.

Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232

Page 46: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Intelligente Agenten in probabilistischer Umgebung

Nehmen wir an,

• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken, und

• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,

dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.

Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232

Page 47: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Intelligente Agenten in probabilistischer Umgebung

Nehmen wir an,

• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken, und

• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,

dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.

Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232

Page 48: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Intelligente Agenten in probabilistischer Umgebung

Nehmen wir an,

• der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einerprobabilistischen Regelbasis ausdrucken, und

• er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten,

dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeitproduzieren.

Wir wollen also den Agenten als einen Inferenzprozess N modellieren, derzu jeder Menge R von probabilistischen Regeln eineWahrscheinlichkeitsverteilung produziert.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232

Page 49: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 1/2

Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen

Form(Σ) Menge der Formeln uber Σ

P(Σ) Menge aller Wahrscheinlichkeitsverteilungenuber Σ, d.h.

P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑

i=1

pi = 1

KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ

Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232

Page 50: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 1/2

Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen

Form(Σ) Menge der Formeln uber ΣP(Σ) Menge aller Wahrscheinlichkeitsverteilungen

uber Σ, d.h.

P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑

i=1

pi = 1

KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ

Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232

Page 51: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 1/2

Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen

Form(Σ) Menge der Formeln uber ΣP(Σ) Menge aller Wahrscheinlichkeitsverteilungen

uber Σ, d.h.

P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑

i=1

pi = 1

KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ

Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232

Page 52: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 1/2

Σ = A1, . . . , An Alphabet,d.h. Menge von (binaren) Aussagenvariablen

Form(Σ) Menge der Formeln uber ΣP(Σ) Menge aller Wahrscheinlichkeitsverteilungen

uber Σ, d.h.

P(Σ) = (p1, . . . , p2n) | pi ≥ 0,2n∑

i=1

pi = 1

KB(Σ) Menge aller konsistenten probabilistischen Regelbasen uber Σ

Ist Σ1 ⊆ Σ2, so ist auch KB(Σ1) ⊆ KB(Σ2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232

Page 53: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 2/2

Definition 3 (Probabilistischer Inferenzprozess)

Ein probabilistischer Inferenzprozess NΣ ist eine Abbildung

NΣ : KB(Σ) → P(Σ),

R 7→ P,

die jeder konsistenten Regelbasis uber Σ eine Verteilung P uber Σzuordnet mit P |= R.

NΣ spezifiziert also einen induktiven Inferenzprozess.Welche CR-Prinzipien zeichnen einen “guten” Inferenzprozess aus?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232

Page 54: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 2/2

Definition 3 (Probabilistischer Inferenzprozess)

Ein probabilistischer Inferenzprozess NΣ ist eine Abbildung

NΣ : KB(Σ) → P(Σ),

R 7→ P,

die jeder konsistenten Regelbasis uber Σ eine Verteilung P uber Σzuordnet mit P |= R.

NΣ spezifiziert also einen induktiven Inferenzprozess.

Welche CR-Prinzipien zeichnen einen “guten” Inferenzprozess aus?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232

Page 55: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Probabilistischer Inferenzprozess 2/2

Definition 3 (Probabilistischer Inferenzprozess)

Ein probabilistischer Inferenzprozess NΣ ist eine Abbildung

NΣ : KB(Σ) → P(Σ),

R 7→ P,

die jeder konsistenten Regelbasis uber Σ eine Verteilung P uber Σzuordnet mit P |= R.

NΣ spezifiziert also einen induktiven Inferenzprozess.Welche CR-Prinzipien zeichnen einen “guten” Inferenzprozess aus?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232

Page 56: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 1: Irrelevante Information

Irrelevante-Information-Prinzip

Information uber ganz andere Themenbereiche soll das Ergebnis desInferenzprozesses nicht beeinflussen.

Seien Σ1,Σ2 zwei disjunkte Signaturen, Σ1 ∩ Σ2 = ∅, und seienR1 ∈ KB(Σ1),R2 ∈ KB(Σ2). Fur alle φ ∈ Form(Σ1) soll dann gelten:

NΣ1(R1)(φ) = NΣ1∪Σ2(R1 ∪R2)(φ).

Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signaturabhangen. Wir schreiben daher im Folgenden haufig N statt NΣ.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232

Page 57: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 1: Irrelevante Information

Irrelevante-Information-Prinzip

Information uber ganz andere Themenbereiche soll das Ergebnis desInferenzprozesses nicht beeinflussen.

Seien Σ1,Σ2 zwei disjunkte Signaturen, Σ1 ∩ Σ2 = ∅, und seienR1 ∈ KB(Σ1),R2 ∈ KB(Σ2). Fur alle φ ∈ Form(Σ1) soll dann gelten:

NΣ1(R1)(φ) = NΣ1∪Σ2(R1 ∪R2)(φ).

Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signaturabhangen. Wir schreiben daher im Folgenden haufig N statt NΣ.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232

Page 58: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 1: Irrelevante Information

Irrelevante-Information-Prinzip

Information uber ganz andere Themenbereiche soll das Ergebnis desInferenzprozesses nicht beeinflussen.

Seien Σ1,Σ2 zwei disjunkte Signaturen, Σ1 ∩ Σ2 = ∅, und seienR1 ∈ KB(Σ1),R2 ∈ KB(Σ2). Fur alle φ ∈ Form(Σ1) soll dann gelten:

NΣ1(R1)(φ) = NΣ1∪Σ2(R1 ∪R2)(φ).

Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signaturabhangen. Wir schreiben daher im Folgenden haufig N statt NΣ.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232

Page 59: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232

Page 60: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 2: Semantische Aquivalenz

Aquivalenz-Prinzip

Haben zwei Wissensbasen exakt die gleiche (semantische) Bedeutung, sosoll auch exakt das Gleiche gefolgert werden.

Beschreiben R1,R2 ∈ KB(Σ) denselben Losungsraum in P(Σ), so sollgelten N(R1) = N(R2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 219 / 232

Page 61: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 2: Semantische Aquivalenz

Aquivalenz-Prinzip

Haben zwei Wissensbasen exakt die gleiche (semantische) Bedeutung, sosoll auch exakt das Gleiche gefolgert werden.

Beschreiben R1,R2 ∈ KB(Σ) denselben Losungsraum in P(Σ), so sollgelten N(R1) = N(R2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 219 / 232

Page 62: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 3: Umbenennung

Umbenennungs-Prinzip

Eine isomorphe Umbennung der Variablen in der Wissensbasis soll keinenEffekt auf das Ergebnis der Inferenz haben.

Formalisierung: . . .

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 220 / 232

Page 63: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 4: Kontext-Relativierung

Relativierungs-Prinzip

Information, die sich auf die Nichterfullung eines Kontextes bezieht, istirrelevant fur die kontextbezogene Inferenz.

Sei A ∈ Form(Σ), seien R1,R2 ∈ KB(Σ) die folgenden Wissensbasen:

R1 = A[x], (Bi ∧A)[xi], (Cj ∧ ¬A)[yj ]i,j ,R2 = A[x], (Bi ∧A)[xi]i.

Fur φ ∈ Form(Σ) soll dann gelten:

N(R1)(φ ∧A) = N(R2)(φ ∧A).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232

Page 64: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 4: Kontext-Relativierung

Relativierungs-Prinzip

Information, die sich auf die Nichterfullung eines Kontextes bezieht, istirrelevant fur die kontextbezogene Inferenz.

Sei A ∈ Form(Σ), seien R1,R2 ∈ KB(Σ) die folgenden Wissensbasen:

R1 = A[x], (Bi ∧A)[xi], (Cj ∧ ¬A)[yj ]i,j ,R2 = A[x], (Bi ∧A)[xi]i.

Fur φ ∈ Form(Σ) soll dann gelten:

N(R1)(φ ∧A) = N(R2)(φ ∧A).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232

Page 65: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232

Page 66: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232

Page 67: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 5: Hartnackigkeit

Hartnackigkeits-Prinzip

Information, die das bestatigt, was der Agent bereits glaubt, soll dasErgebnis der Inferenz nicht beeinflussen.

Sind R1,R2 ∈ KB(Σ), und erfullt N(R1) bereits R2, so soll gelten:

N(R1) = N(R1 ∪R2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232

Page 68: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 5: Hartnackigkeit

Hartnackigkeits-Prinzip

Information, die das bestatigt, was der Agent bereits glaubt, soll dasErgebnis der Inferenz nicht beeinflussen.

Sind R1,R2 ∈ KB(Σ), und erfullt N(R1) bereits R2, so soll gelten:

N(R1) = N(R1 ∪R2).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232

Page 69: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232

Page 70: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 6: Schwache Unabhangigkeit

Schwaches Unabhangigkeits-Prinzip

Information uber eine echte Alternative soll das Ergebnis der Inferenz nichtbeeinflussen.

Sei Σ = A,B,C, und seien R1,R2 ∈ KB(Σ) die folgendenWissensbasen:

R1 = A[x], B[y],R2 = A[x], B[y], C[z], AC[0].

Dann soll gelten N(R1)(A ∧B) = N(R2)(A ∧B).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232

Page 71: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 6: Schwache Unabhangigkeit

Schwaches Unabhangigkeits-Prinzip

Information uber eine echte Alternative soll das Ergebnis der Inferenz nichtbeeinflussen.

Sei Σ = A,B,C, und seien R1,R2 ∈ KB(Σ) die folgendenWissensbasen:

R1 = A[x], B[y],R2 = A[x], B[y], C[z], AC[0].

Dann soll gelten N(R1)(A ∧B) = N(R2)(A ∧B).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232

Page 72: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232

Page 73: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 7: Stetigkeit

Stetigkeits-Prinzip

Mikroskopisch kleine Anderungen in der Weltbeschreibung sollen keinemakroskopisch großen Anderungen in den Wahrscheinlichkeitenverursachen.

Fur jedes φ ∈ Form(Σ) hangt N(R)(φ) stetig von denWahrscheinlichkeiten des Faktenwissens in R ab.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232

Page 74: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

CR-Prinzip 7: Stetigkeit

Stetigkeits-Prinzip

Mikroskopisch kleine Anderungen in der Weltbeschreibung sollen keinemakroskopisch großen Anderungen in den Wahrscheinlichkeitenverursachen.

Fur jedes φ ∈ Form(Σ) hangt N(R)(φ) stetig von denWahrscheinlichkeiten des Faktenwissens in R ab.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232

Page 75: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232

Page 76: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Haupttheorem

Theorem 4

Jeder Inferenzprozess N , der alle CR-Prinzipien 1-7 erfullt, stimmt mit derME-Inferenz uberein.

Die ME -Methodik erlaubt also optimales Commonsense Reasoning improbabilistischen Bereich und wird durch die CR-Prinzipien 1-7 eindeutigbestimmt.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 225 / 232

Page 77: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Fazit ME-Methodik 1/2

ME -Rehabilitation

Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahrenohne Sinn und Logik!

• Die ME -Methodik ermoglicht induktive Inferenz in ihrer allgemeinstenForm: Komplexe Wissenszustande (Wahrscheinlichkeitsverteilungen)konnen aus Information in komplexer Form (Mengen probabilistischerKonditionale) erzeugt werden.

• ME -Inferenz erfullt zahlreiche der Eigenschaften, die man annichtmonotone Inferenzrelationen i.Allg. stellt, z.B. die Kumulativitatund Loop.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232

Page 78: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Fazit ME-Methodik 1/2

ME -Rehabilitation

Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahrenohne Sinn und Logik!

• Die ME -Methodik ermoglicht induktive Inferenz in ihrer allgemeinstenForm: Komplexe Wissenszustande (Wahrscheinlichkeitsverteilungen)konnen aus Information in komplexer Form (Mengen probabilistischerKonditionale) erzeugt werden.

• ME -Inferenz erfullt zahlreiche der Eigenschaften, die man annichtmonotone Inferenzrelationen i.Allg. stellt, z.B. die Kumulativitatund Loop.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232

Page 79: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Fazit ME-Methodik 1/2

ME -Rehabilitation

Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahrenohne Sinn und Logik!

• Die ME -Methodik ermoglicht induktive Inferenz in ihrer allgemeinstenForm: Komplexe Wissenszustande (Wahrscheinlichkeitsverteilungen)konnen aus Information in komplexer Form (Mengen probabilistischerKonditionale) erzeugt werden.

• ME -Inferenz erfullt zahlreiche der Eigenschaften, die man annichtmonotone Inferenzrelationen i.Allg. stellt, z.B. die Kumulativitatund Loop.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232

Page 80: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Fazit ME-Methodik 2/2

• Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige derInferenzregeln simulieren (z.B. Vorsichtige Monotonie, Schnitt).

• Die ME -Methodik lasst sich als optimale Umsetzung desCommonsense Reasoning in einer probabilistischen Umgebungauffassen.

• Fur die Wissensrevision gibt es einen ebenso hochwertigen “großenBruder”, das Prinzip der minimalen Relativ-Entropie.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232

Page 81: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Fazit ME-Methodik 2/2

• Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige derInferenzregeln simulieren (z.B. Vorsichtige Monotonie, Schnitt).

• Die ME -Methodik lasst sich als optimale Umsetzung desCommonsense Reasoning in einer probabilistischen Umgebungauffassen.

• Fur die Wissensrevision gibt es einen ebenso hochwertigen “großenBruder”, das Prinzip der minimalen Relativ-Entropie.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232

Page 82: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie

Fazit ME-Methodik 2/2

• Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige derInferenzregeln simulieren (z.B. Vorsichtige Monotonie, Schnitt).

• Die ME -Methodik lasst sich als optimale Umsetzung desCommonsense Reasoning in einer probabilistischen Umgebungauffassen.

• Fur die Wissensrevision gibt es einen ebenso hochwertigen “großenBruder”, das Prinzip der minimalen Relativ-Entropie.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232

Page 83: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Ubersicht Kapitel 4 – Probabilistik

4.1 Einfuhrung und Ubersicht

4.2 Wahrscheinlichkeitstheorie und Commonsense Reasoning

4.3 Grundideen probabilistischen Schlussfolgerns

4.4 Schlussfolgern uber Unabhangigkeiten

4.5 Propagation in baumartigen Netzen

4.6 Probabilistische Inferenz auf der Basis optimaler Entropie

4.7 Schlussworte und Zusammenfassung

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 228 / 232

Page 84: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Kapitel 4

4. ProbabilistischeFolgerungsmodelle und -strategien

4.7 Schlussworte und Zusammenfassung

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 229 / 232

Page 85: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4

• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.

• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.

• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.

• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232

Page 86: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4

• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.

• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.

• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.

• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232

Page 87: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4

• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.

• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.

• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.

• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232

Page 88: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4

• Bedingte Wahrscheinlichkeiten (= Konditionale mitWahrscheinlichkeiten) sind die Reprasentanten generischen Wissensund wichtige Bausteine probabilistischer Netzwerke.

• Auch in gerichteten probabilistischen Netzwerken istWissenspropagation in beiden Richtungen moglich.

• In einfachen probabilistischen Netzwerken (Baumen) ist ein direkterInformationsfluss uber die Kanten moglich.

• In probabilistischen Netzwerken mit konfluenter Information (DAG)oder allgemeinen Abhangigkeiten (LEG-Netze) muss zunachst eineHyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgtzwischen benachbarten Hyperkanten uber deren Schnitte(Separatoren).

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232

Page 89: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4 (Forts.)

• Das Problem unvollstandiger probabilistischer Informationen wird inBayes-Netzen durch klare Spezifikationsvorgaben und die Annahmebedingter Unabhangigkeiten gelost.

• Mit Hilfe der ME-Methodik kann aus einer Menge probabilistischerRegeln (unvollstandige Information!) ohne weitere Annahmen einevollstandige Verteilung aufgebaut werden. Bedingte Unabhangigkeitenentstehen hier aus dem Kontext heraus, werden aber nichtvorausgesetzt.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 231 / 232

Page 90: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4 (Forts.)

• Das Problem unvollstandiger probabilistischer Informationen wird inBayes-Netzen durch klare Spezifikationsvorgaben und die Annahmebedingter Unabhangigkeiten gelost.

• Mit Hilfe der ME-Methodik kann aus einer Menge probabilistischerRegeln (unvollstandige Information!) ohne weitere Annahmen einevollstandige Verteilung aufgebaut werden. Bedingte Unabhangigkeitenentstehen hier aus dem Kontext heraus, werden aber nichtvorausgesetzt.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 231 / 232

Page 91: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4 (Forts.)

• Bayessche Netze modellieren bedingte Unabhangigkeiten, wahrend dieME -Methodik sich auf die konsequente Ausnutzung bedingterAbhangigkeiten konzentriert.

• Die ME -Inferenz ist ein machtige Methode fur die probabilistischeWissensreprasentation mit hervorragenden Eigenschaften.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 232 / 232

Page 92: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Probabilistische Folgerungsmodelle und -strategien Schlussworte und Zusammenfassung

Zusammenfassung Kapitel 4 (Forts.)

• Bayessche Netze modellieren bedingte Unabhangigkeiten, wahrend dieME -Methodik sich auf die konsequente Ausnutzung bedingterAbhangigkeiten konzentriert.

• Die ME -Inferenz ist ein machtige Methode fur die probabilistischeWissensreprasentation mit hervorragenden Eigenschaften.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 232 / 232

Page 93: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Commonsense Reasoning – Ubersicht

• Ubersicht, Organisatorisches und Einfuhrung

• Nichtklassisches Schlussfolgern

• Rangfunktionen – ein einfaches epistemisches Modell

• Probabilistische Folgerungsmodelle und -strategien

• Qualitative und quantitative Wissensreprasentation

• Argumentation

• (Commonsense Reasoning in Multi-Agentensystemen)

• Schlussteil und Prufungsvorbereitung

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 2 / 51

Page 94: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Kapitel 5

5. Qualitative und quantitativeWissensreprasentation

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 3 / 51

Page 95: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Ubersicht Kapitel 5 – Qualitativ und Quantitativ

5.1 Qualitative Wahrscheinlichkeiten

5.2 Nichtmonotonie in der Probabilistik

5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten

5.4 Konditionale Ereignisse

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51

Page 96: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Ubersicht Kapitel 5 – Qualitativ und Quantitativ

5.1 Qualitative Wahrscheinlichkeiten

5.2 Nichtmonotonie in der Probabilistik

5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten

5.4 Konditionale Ereignisse

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51

Page 97: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Ubersicht Kapitel 5 – Qualitativ und Quantitativ

5.1 Qualitative Wahrscheinlichkeiten

5.2 Nichtmonotonie in der Probabilistik

5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten

5.4 Konditionale Ereignisse

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51

Page 98: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Ubersicht Kapitel 5 – Qualitativ und Quantitativ

5.1 Qualitative Wahrscheinlichkeiten

5.2 Nichtmonotonie in der Probabilistik

5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten

5.4 Konditionale Ereignisse

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51

Page 99: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Ubersicht Kapitel 5 – Qualitativ und Quantitativ

5.1 Qualitative Wahrscheinlichkeiten

5.2 Nichtmonotonie in der Probabilistik

5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten

5.4 Konditionale Ereignisse

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 5 / 51

Page 100: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Kapitel 5

5. Qualitative und quantitativeWissensreprasentation

5.1 Qualitative Wahrscheinlichkeiten

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 6 / 51

Page 101: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Punktgenaue Wahrscheinlichkeiten . . .

Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.

Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77].

Warum nicht 0.78, 0.80 oder 0.75?

Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?

Welche Fehlerquellen stellen Rundungen dar?

. . . oder darf’s auch ruhig ein bisschen mehr sein?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

Page 102: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Punktgenaue Wahrscheinlichkeiten . . .

Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.

Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣

Warum nicht 0.78, 0.80 oder 0.75?

Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?

Welche Fehlerquellen stellen Rundungen dar?

. . . oder darf’s auch ruhig ein bisschen mehr sein?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

Page 103: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Punktgenaue Wahrscheinlichkeiten . . .

Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.

Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣

Warum nicht 0.78, 0.80 oder 0.75?

Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?

Welche Fehlerquellen stellen Rundungen dar?

. . . oder darf’s auch ruhig ein bisschen mehr sein?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

Page 104: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Punktgenaue Wahrscheinlichkeiten . . .

Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.

Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣

Warum nicht 0.78, 0.80 oder 0.75?

Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?

Welche Fehlerquellen stellen Rundungen dar?

. . . oder darf’s auch ruhig ein bisschen mehr sein?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

Page 105: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Punktgenaue Wahrscheinlichkeiten . . .

Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaueWahrscheinlichkeiten.

Beispiel: Bei MaxEnt folgt mit der Schnittregel(C|AB)[0.8], (B|A)[0.9] |∼ME(C|A)[0.77]. ♣

Warum nicht 0.78, 0.80 oder 0.75?

Welchen Nutzen haben solche exakten Wahrscheinlichkeiten?

Welche Fehlerquellen stellen Rundungen dar?

. . . oder darf’s auch ruhig ein bisschen mehr sein?

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

Page 106: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Infinitesimale Wahrscheinlichkeiten

Ziel:Man interessiert sich nicht fur die (konkrete) Wahrscheinlichkeit, sondernnur fur die Großenordnung der Wahrscheinlichkeit.

Idee:

• Drucke P (ω) als Polynom in ε aus, wobei ε eine “kleine”, positiveZahl bzw. ein Infinitesimal ist (d.h. P wird durch ε parametrisiert);

• Infinitesimale sind stetige Funktionen ε : (0, 1)→ (0, 1) mitlimx→0 ε(x) = 0, z.B. ε(x) = x2.

• betrachte dann den Grenzwert ε→ 0, um eine qualitative Abstraktionvon P (ω) zu bekommen.

Beispiel: Man mochte nicht zwischen den Wahrscheinlichkeiten 0.856 und0.858 unterscheiden, sie sind (offensichtlich) von der gleichenGroßenordnung. ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

Page 107: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Infinitesimale Wahrscheinlichkeiten

Ziel:Man interessiert sich nicht fur die (konkrete) Wahrscheinlichkeit, sondernnur fur die Großenordnung der Wahrscheinlichkeit.

Idee:

• Drucke P (ω) als Polynom in ε aus, wobei ε eine “kleine”, positiveZahl bzw. ein Infinitesimal ist (d.h. P wird durch ε parametrisiert);

• Infinitesimale sind stetige Funktionen ε : (0, 1)→ (0, 1) mitlimx→0 ε(x) = 0, z.B. ε(x) = x2.

• betrachte dann den Grenzwert ε→ 0, um eine qualitative Abstraktionvon P (ω) zu bekommen.

Beispiel: Man mochte nicht zwischen den Wahrscheinlichkeiten 0.856 und0.858 unterscheiden, sie sind (offensichtlich) von der gleichenGroßenordnung. ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

Page 108: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Infinitesimale Wahrscheinlichkeiten

Ziel:Man interessiert sich nicht fur die (konkrete) Wahrscheinlichkeit, sondernnur fur die Großenordnung der Wahrscheinlichkeit.

Idee:

• Drucke P (ω) als Polynom in ε aus, wobei ε eine “kleine”, positiveZahl bzw. ein Infinitesimal ist (d.h. P wird durch ε parametrisiert);

• Infinitesimale sind stetige Funktionen ε : (0, 1)→ (0, 1) mitlimx→0 ε(x) = 0, z.B. ε(x) = x2.

• betrachte dann den Grenzwert ε→ 0, um eine qualitative Abstraktionvon P (ω) zu bekommen.

Beispiel: Man mochte nicht zwischen den Wahrscheinlichkeiten 0.856 und0.858 unterscheiden, sie sind (offensichtlich) von der gleichenGroßenordnung. ♣

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

Page 109: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

Page 110: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

Page 111: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 1/5

Die Großenordnung κP einer parametrisierten (infinitesimalen)Wahrscheinlichkeit

P (ω) = (1−)a0ε0 + a1ε

1 + a2ε2 + . . .

wird definiert als

κP (ω) =

minn ∈ N | lim

ε→0

P (ω)εn 6= 0, P (ω) > 0

∞, P (ω) = 0

D.h. fur P (ω) = a0ε0 + a1ε

1 + a2ε2 + . . .

ist κP (ω) = mini|ai 6= 0

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51

Page 112: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 1/5

Die Großenordnung κP einer parametrisierten (infinitesimalen)Wahrscheinlichkeit

P (ω) = (1−)a0ε0 + a1ε

1 + a2ε2 + . . .

wird definiert als

κP (ω) =

minn ∈ N | lim

ε→0

P (ω)εn 6= 0, P (ω) > 0

∞, P (ω) = 0

D.h. fur P (ω) = a0ε0 + a1ε

1 + a2ε2 + . . .

ist κP (ω) = mini|ai 6= 0

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51

Page 113: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Notizen

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51

Page 114: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 2/5

Fur infinitesimale parametrisierte Wahrscheinlichkeiten P hatP (ω1) + P (ω2) die Großenordnung

minκP (ω1), κP (ω2);

die Großenordnung von Formeln A kann also definiert werden durch

κP (A) = minκP (ω) | ω |= A

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 10 / 51

Page 115: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 2/5

Fur infinitesimale parametrisierte Wahrscheinlichkeiten P hatP (ω1) + P (ω2) die Großenordnung

minκP (ω1), κP (ω2);

die Großenordnung von Formeln A kann also definiert werden durch

κP (A) = minκP (ω) | ω |= A

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 10 / 51

Page 116: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 3/5

Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so druckt κPWahrscheinlichkeiten qualitativ aus:

P (A) ≈ ε0 A und ¬A sind moglich κP (A) = 0

P (A) ≈ ε1 ¬A wird geglaubt κP (A) = 1

P (A) ≈ ε2 ¬A wird fest geglaubt κP (A) = 2

P (A) ≈ ε3 ¬A ist fast sicher κP (A) = 3...

......

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51

Page 117: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 3/5

Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so druckt κPWahrscheinlichkeiten qualitativ aus:

P (A) ≈ ε0 A und ¬A sind moglich κP (A) = 0

P (A) ≈ ε1 ¬A wird geglaubt κP (A) = 1

P (A) ≈ ε2 ¬A wird fest geglaubt κP (A) = 2

P (A) ≈ ε3 ¬A ist fast sicher κP (A) = 3...

......

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51

Page 118: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 3/5

Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so druckt κPWahrscheinlichkeiten qualitativ aus:

P (A) ≈ ε0 A und ¬A sind moglich κP (A) = 0

P (A) ≈ ε1 ¬A wird geglaubt κP (A) = 1

P (A) ≈ ε2 ¬A wird fest geglaubt κP (A) = 2

P (A) ≈ ε3 ¬A ist fast sicher κP (A) = 3...

......

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51

Page 119: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 4/5

Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben;

sie haben die folgenden Eigenschaften:

• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )

• κ(A ∨B) = minκ(A), κ(B).

Qualitative Wahrscheinlichkeiten sind OCF!

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

Page 120: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 4/5

Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:

• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )

• κ(A ∨B) = minκ(A), κ(B).

Qualitative Wahrscheinlichkeiten sind OCF!

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

Page 121: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 4/5

Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:

• sie sind Funktionen κ : Ω→ N ∪ ∞;

• ( minκ(ω) : ω ∈ Ω = 0; )

• κ(A ∨B) = minκ(A), κ(B).

Qualitative Wahrscheinlichkeiten sind OCF!

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

Page 122: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 4/5

Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:

• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )

• κ(A ∨B) = minκ(A), κ(B).

Qualitative Wahrscheinlichkeiten sind OCF!

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

Page 123: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 4/5

Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:

• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )

• κ(A ∨B) = minκ(A), κ(B).

Qualitative Wahrscheinlichkeiten sind OCF!

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

Page 124: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 4/5

Qualitative Wahrscheinlichkeiten κP (ω) werden auf einer logarithmischenSkala angegeben; sie haben die folgenden Eigenschaften:

• sie sind Funktionen κ : Ω→ N ∪ ∞;• ( minκ(ω) : ω ∈ Ω = 0; )

• κ(A ∨B) = minκ(A), κ(B).

Qualitative Wahrscheinlichkeiten sind OCF!

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

Page 125: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 5/5

Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:

κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1

κ(A) = minω|=A κ(ω) P (A) =∑

ω|=A P (ω)

κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)

Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.

Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

Page 126: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 5/5

Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:

κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1

κ(A) = minω|=A κ(ω) P (A) =∑

ω|=A P (ω)

κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)

Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.

Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

Page 127: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 5/5

Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:

κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1

κ(A) = minω|=A κ(ω) P (A) =∑

ω|=A P (ω)

κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)

Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.

Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

Page 128: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 5/5

Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:

κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1

κ(A) = minω|=A κ(ω) P (A) =∑

ω|=A P (ω)

κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)

Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.

Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

Page 129: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

Qualitative Wahrscheinlichkeiten 5/5

Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgendenZusammenhange:

κ(A) = 0 oder κ(¬A) = 0 P (A) + P (¬A) = 1

κ(A) = minω|=A κ(ω) P (A) =∑

ω|=A P (ω)

κ(B|A) = κ(A ∧B)− κ(A) P (B|A) = P (A∧B)P (A)

Qualitative Wahrscheinlichkeiten drucken – ebenso wie Range – den Gradder Uberraschung aus, eine entsprechende Welt zu finden.

Tatsachlich sind OCF’s als qualitative Abstraktionen vonWahrscheinlichkeiten entstanden, indem die Großenordnung voninfinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlenkodiert wird.

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

Page 130: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Qualitative Wahrscheinlichkeiten

OCF’s und Wahrscheinlichkeiten – Beispiel

Folgende qualitative Umsetzung von Wahrscheinlichkeiten in Rangzahlensind beispielsweise denkbar:

W’keit Rangzahl Bedeutung

P (ω) ≈ 0.1 κ(ω) = 0 normalP (ω) ≈ 0.01 κ(ω) = 1 seltenP (ω) ≈ 0.001 κ(ω) = 2 unwahrscheinlichP (ω) ≈ 0.0001 κ(ω) = 3 fast unmoglich...

......

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 14 / 51

Page 131: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

Ubersicht Kapitel 5 – Qualitativ und Quantitativ

5.1 Qualitative Wahrscheinlichkeiten

5.2 Nichtmonotonie in der Probabilistik

5.3 ε-Semantik – infinitesimale Wahrscheinlichkeiten

5.4 Konditionale Ereignisse

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 15 / 51

Page 132: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

Kapitel 5

5. Qualitative und quantitativeWissensreprasentation

5.2 Nichtmonotonie in der Probabilistik

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 16 / 51

Page 133: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 1/2

Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:

A |∼P B gdw. “Wenn A, dann meistens B”

gdw. P (B|A) > 0.5

NMR-Inferenzkriterien erfullt?

• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,

Studenten |∼P Schach,

aber Studenten ∧ Schach 6|∼P Fussball

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

Page 134: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 1/2

Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:

A |∼P B gdw. “Wenn A, dann meistens B”

gdw. P (B|A) > 0.5

NMR-Inferenzkriterien erfullt?

• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,

Studenten |∼P Schach,

aber Studenten ∧ Schach 6|∼P Fussball

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

Page 135: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 1/2

Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:

A |∼P B gdw. “Wenn A, dann meistens B”

gdw. P (B|A) > 0.5

NMR-Inferenzkriterien erfullt?

• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!

Beispiel: Studenten |∼P Fussball,Studenten |∼P Schach,

aber Studenten ∧ Schach 6|∼P Fussball

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

Page 136: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 1/2

Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:

A |∼P B gdw. “Wenn A, dann meistens B”

gdw. P (B|A) > 0.5

NMR-Inferenzkriterien erfullt?

• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,

Studenten |∼P Schach,

aber Studenten ∧ Schach 6|∼P Fussball

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

Page 137: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 1/2

Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen:

A |∼P B gdw. “Wenn A, dann meistens B”

gdw. P (B|A) > 0.5

NMR-Inferenzkriterien erfullt?

• vorsichtige Monotonie ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|A) > 0.5, aber P (C|AB) < 0.5moglich!Beispiel: Studenten |∼P Fussball,

Studenten |∼P Schach,

aber Studenten ∧ Schach 6|∼P Fussball

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

Page 138: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 2/2

• Schnitt ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|AB) > 0.5, aber P (C|A) < 0.5moglich!

Beispiel:st Bauchschmerzen |∼P Appendicitis,

st Bauchschmerzen ∧ Appendicitis |∼P bald wieder gesund,

aber st Bauchschmerzen 6|∼P bald wieder gesund

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51

Page 139: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 2/2

• Schnitt ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|AB) > 0.5, aber P (C|A) < 0.5moglich!Beispiel:

st Bauchschmerzen |∼P Appendicitis,st Bauchschmerzen ∧ Appendicitis |∼P bald wieder gesund,

aber st Bauchschmerzen 6|∼P bald wieder gesund

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51

Page 140: Gabriele Kern-Isberner LS 1 { Information Engineering fileProbabilistische Folgerungsmodelle und -strategien Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4

Schnittstellen zwischen qualitativer und quantitativerWissensreprasentation Nichtmonotonie in der Probabilistik

NMR in der Probabilistik 2/2

• Schnitt ist nicht erfullt. . . denn P (B|A) > 0.5, P (C|AB) > 0.5, aber P (C|A) < 0.5moglich!Beispiel:

st Bauchschmerzen |∼P Appendicitis,st Bauchschmerzen ∧ Appendicitis |∼P bald wieder gesund,

aber st Bauchschmerzen 6|∼P bald wieder gesund

G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51