background image

WPROWADZENIE 

DO SZTUCZNEJ INTELIGENCJI

POLITECHNIKA WARSZAWSKA

WYDZIAŁ MECHANICZNY ENERGETYKI I LOTNICTWA

MEL

MEL

NS 586

Dr in

Ŝ

. Franciszek Dul

©  F.A. Dul 2007

background image

14.  WNIOSKOWANIE 

STATYSTYCZNE W SIECI BAYESA

©  F.A. Dul 2007

STATYSTYCZNE W SIECI BAYESA

background image

Wnioskowanie statystyczne

Poka

Ŝ

emy, jak zbudowa

ć

 model 

probabilistyczny 

ś

wiata w postaci     

tzw. sieci Bayesa, który posłu

Ŝ

do efektywnego wnioskowania         

do efektywnego wnioskowania         
w warunkach niepewno

ś

ci.

©  F.A. Dul 2007

background image

• Składnia i semantyka sieci Bayesa

• Przykłady sieci Bayesa

• Wnioskowanie 

ś

cisłe i przybli

Ŝ

one w sieciach Bayesa

• Inne rodzaje wnioskowania w warunkach niepewno

ś

ci

Plan rozdziału

©  F.A. Dul 2007

background image

14.1. Sieci Bayesa

Sie

ć

 Bayesa jest to graf acykliczny skierowany, który 

umo

Ŝ

liwia zapis graficzny zale

Ŝ

no

ś

ci warunkowej zdarze

ń

Sie

ć

 Bayesa umo

Ŝ

liwia intuicyjne uj

ę

cie zale

Ŝ

no

ś

ci 

przyczynowych pomi

ę

dzy zmiennymi.  

Sieci Bayesa pozwalaj

ą

 przedstawi

ć

 zwi

ęź

le rozkład ł

ą

czny 

prawdopodobie

ń

stwa.

Składnia sieci Bayesa:

– zbiór w

ę

złów, po jednym dla ka

Ŝ

dej zmiennej 

losowej (w

ę

zły grafu),

Z

mienna

1

P(Z

1

)=0.12

©  F.A. Dul 2007

losowej (w

ę

zły grafu),

Rozkład warunkowy jest przedstawiany najcz

ęś

ciej w postaci 

tablic prawdopodobie

ń

stwa warunkowego

(conditional proba-

bility table, CPT), które podaj

ą

 rozkład prawdopodobie

ń

stwa 

warunkowego dla X

i

dla ka

Ŝ

dej kombinacji warto

ś

ci rodziców. 

Z

mienna

2

Z

mienna

3

– poł

ą

czenia odpowiadaj

ą

ce zale

Ŝ

no

ś

ciom 

pomi

ę

dzy zmiennymi (kraw

ę

dzie grafu),

– rozkład prawdopodobie

ń

stwa warunkowego 

ka

Ŝ

dego w

ę

zła przy znanych warto

ś

ciach    

rozkładu prawdopodobie

ń

stwa rodziców,

P(X

| Rodzice(X

i

))

Z

1

  P

 

(Z

2

|Z

1

0.80 
0.20 

 

 

Z

1

  P(Z

3

|Z

1

0.45 
0.06 

 

 

background image

14.1. Sieci Bayesa

Przykład sieci Bayesa

Sie

ć

 Bayesa dla modelu opisuj

ą

cego zale

Ŝ

no

ś

ci pomi

ę

dzy 

bólem z

ę

ba, ubytkiem, wykryciem ubytku oraz pogod

ą

.

• Zmienne losowe zadania :BólZ

ę

ba, Ubytek, Wykrycie

oraz Pogoda.

Pogoda

Ubytek

©  F.A. Dul 2007

BólZ

ę

ba

Wykrycie

Topologia sieci Bayesa pozwala opisa

ć

 niezale

Ŝ

no

ść

 

absolutn

ą

 lub warunkow

ą

 zmiennych. 

• BólZ

ę

ba Wykrycie s

ą

 niezale

Ŝ

ne warunkowo przy danej 

warto

ś

ci zmiennej Ubytek.

• Pogoda jest niezale

Ŝ

na od pozostałych zmiennych         

(i vice versa).

background image

14.1. Sieci Bayesa

Bardziej zło

Ŝ

ony przykład sieci Bayesa

• Opis problemu

Jestem w pracy. Dzwoni do mnie s

ą

siad Jan z informacj

ą

,       

Ŝ

e uruchomił si

ę

 alarm w moim domu. Druga s

ą

siadka, Maria,      

nie dzwoniAlarm jest czasami wł

ą

czany przez ró

Ŝ

ne wstrz

ą

sy. 

Czy to jest włamanie? 

• Zmienne losowe (w nawiasach nazwy skrócone):

Włamanie (W), Wstrz

ą

sy (S), Alarm (A), 

MariaDzwoni (M), JanDzwoni (J)

©  F.A. Dul 2007

MariaDzwoni (M), JanDzwoni (J)

• Wiedza o zadaniu:

– Alarm mo

Ŝ

e uruchomi

ć

 włamywacz.

– Alarm mog

ą

 te

Ŝ

 uruchomi

ć

 wstrz

ą

sy, np. od przelatuj

ą

cego 

samolotu.

– Wł

ą

czony alarm mo

Ŝ

e skłoni

ć

 Mari

ę

 lub Jana do zadzwonienia     

do mnie.

• Topologia sieci Bayesa powinna odzwierciedla

ć

 powy

Ŝ

sz

ą

 

wiedz

ę

 przyczynow

ą

.

background image

14.1. Sieci Bayesa

Sie

ć

 Bayesa dla problemu włamania

P(S)

0.002

P(W)

0.001

W S

P(A|W,S)

T

T

0.95

W

łamanie

W

s

trz

ą

sy

©  F.A. Dul 2007

T

T

0.95

T

F

0.94

F

T

0.29

F

F

0.01

J

an Dzwoni

M

aria Dzwoni

A

larm

A P(J|A)
T

0.90

F

0.05

A

P(M|A)

T

0.70

F

0.01

background image

14.1. Sieci Bayesa

Zwarto

ść

 reprezentacji za pomoc

ą

 sieci Bayesa

• Tablica CPT dla zmiennej losowej boolowskiej X

i

maj

ą

cej boolowskich rodziców ma 2

k

wierszy        

dla wszystkich kombinacji warto

ś

ci zmiennych 

rodziców.

• Ka

Ŝ

dy wiersz zawiera prawdopodobie

ń

stwo

dla X

i

= prawda, 

1-p dla X

i

= fałsz.

• Je

Ŝ

eli jest n zmiennych  i ka

Ŝ

da zmienna

S

W

A

©  F.A. Dul 2007

• Je

Ŝ

eli jest n zmiennych  i ka

Ŝ

da zmienna

ma nie wi

ę

cej ni

Ŝ

 rodziców to cała sie

ć

 

opisana jest za pomoc

ą

 

O(n 

·

2

k

)

liczb.

• Rozmiar ro

ś

nie wi

ę

c liniowo wzgl

ę

dem n, w przeciwie

ń

stwie 

do wzrostu wykładniczego 

O(2

n

)

dla pełnego rozkładu 

ł

ą

cznego. 

• Dla problemu włamania jest to 1 + 1 + 4 + 2 + 2 = 10 liczb   

(w porównaniu z 2

5

-1 = 31 w przypadku ogólnym).

M

J

background image

14.2. Semantyka sieci Bayesa

Rozkład ł

ą

czny prawdopodobie

ń

stwa jest iloczynem 

rozkładów w

ę

złowych

Wnioskowanie na podstawie sieci Bayesa jest analogiczne   
do wnioskowania z rozkładu ł

ą

cznego.

Przykład

W problemie włamania rozkład prawdopodobie

ń

stwa dla zdarzenia             

„Jan dzwoni, Maria dzwoni, alarm działa, nie ma włamania i nie ma 

=

=

n

i

i

i

n

X

Rodzice

X

X

X

1

1

)

)

(

|

(

)

,...,

(

P

P

©  F.A. Dul 2007

„Jan dzwoni, Maria dzwoni, alarm działa, nie ma włamania i nie ma 
wstrz

ą

sów” (

¬

¬

) wynosi

P

¬

¬

)  =

P(j | a)

×

P(m | a)

×

×

P(a | 

¬

b, 

¬

e)

×

P(

¬

b)

×

P(

¬

e)  

0.90

×

0.70  

×

0.001 

×

0.999

×

0.998

= 0.00062

B E

P(A|B,E)

T

T

0.95

T

F

0.94

F

T

0.29

F

F

0.01

Jan Dzwoni

Włamanie

Maria Dzwoni

Alarm

Wstrz

ą

sy

A P(J|A)
T

0.90

F

0.05

A

P(M|A)

T

0.70

F

0.01

P(B)

0.001

P(E)

0.002

background image

14.2.  Semantyka sieci Bayesa

Budowanie sieci Bayesa

1. Wybra

ć

 porz

ą

dek zmiennych losowych X

1

, … ,X

n

;

2. Dla i = 1, … , n :

doda

ć

 X

i

do sieci;

wybra

ć

 spo

ś

ród X

1

, … ,X

i-1

takich rodziców, dla których

P(X

i

| Rodzice(X

i

)) = P(X

i

| X

1

, ... X

i-1

)

©  F.A. Dul 2007

Taki wybór rodziców gwarantuje wła

ś

ciwe reprezentowanie 

rozkładu ł

ą

cznego:

P(X

1

, … ,X

n

)

i =1

P(X

i

| X

1

, … , X

i-1

)   (reguła ła

ń

cuchowa)

i =1 

P(X

| Rodzice(X

i

))

(z konstrukcji)

Topologia sieci oraz jej zwarto

ść

 zale

Ŝą

 od pocz

ą

tkowego 

wyboru porz

ą

dku zmiennych.

background image

14.2.  Semantyka sieci Bayesa

Przykład budowania sieci Bayesa

P(J | M) = P(J)?

Załó

Ŝ

my, 

Ŝ

e wybrali

ś

my porz

ą

dek zmiennych: M, J, A, W, S;

J

an Dzwoni

M

aria Dzwoni

A

larm

P(A | J, M) = P(A | J)?

P(A | J, M) = P(A)?

P(W | A, J, M) = P(W | A)?  

P(W | A, J, M) = P(W)?

Nie

Nie

Nie

Nie

Tak

©  F.A. Dul 2007

• Inny porz

ą

dek zmiennych wprowadził dwie nowe kraw

ę

dzie.

• Sie

ć

 jest mniej zwarta ni

Ŝ

 poprzednio: trzeba zapami

ę

ta

ć

        

1 + 2 + 4 + 2 + 4 = 13 liczb.

• Okre

ś

lanie niezale

Ŝ

no

ś

ci warunkowej jest trudne                 

w kierunkach nieprzyczynowych (noncausal).

• Wydaje si

ę

Ŝ

e modele przyczynowe i niezale

Ŝ

no

ść

 

warunkowa s

ą

 “wbudowane” w natur

ę

 ludzk

ą

!

W

łamanie

W

s

trz

ą

sy

P(W | A, J, M) = P(W | A)?  

P(S | W, A, J, M) = P(S | A, W)?

P(S | W, A ,J, M) = P(S | A)?

Nie

Tak

Tak

background image

14.4. Wnioskowanie 

ś

cisłe w sieci Bayesa

=

=

y

y

e

e

e

)

,

,

(

)

,

(

)

|

(

X

X

X

P

P

P

α

α

Prawdopodobie

ń

stwo zmiennej 

X

przy danych warto

ś

ciach 

zmiennych 

E = 

jest równe

Wyznaczmy w zagadnieniu włamania prawdopodobie

ń

stwo 

zdarzenia 

P(Wlamanie|JanDzwoni=prawda,MariaDzwoni=prawda)

∑∑

=

=

m

j

a

s

W

m

j

W

m

j

W

)

,

,

,

,

(

)

,

,

(

)

,

|

(

P

P

P

α

α

©  F.A. Dul 2007

Dla przypadku = (Włamanie=prawda)  otrzymujemy

∑∑

s

a

∑∑

=

s

a

a

m

P

a

j

P

s

w

a

P

s

P

w

P

m

j

w

P

)

|

(

)

|

(

)

,

|

(

)

(

)

(

)

,

|

(

α

gdzie: j = (JanDzwoni=prawda), m = (MariaDzwoni=prawda) 

Po przegrupowaniu składników otrzymujemy

=

s

a

a

m

P

a

j

P

s

w

a

P

s

P

w

P

m

j

w

P

)

|

(

)

|

(

)

,

|

(

)

(

)

(

)

,

|

(

α

background image

14.4.  Wnioskowanie 

ś

cisłe w sieci Bayesa

Wyznaczenie prawdopodobie

ń

stwa dla 

w = (Włamanie=prawda)

P(s)
0.002

P(

¬

s)

0.998

P(w)

0.001

+

0.01197

0.592238

P(w|j,m) = 

αααα ××××

0.000592238

=

s

a

a

m

P

a

j

P

s

w

a

P

s

P

w

P

m

j

w

P

)

|

(

)

|

(

)

,

|

(

)

(

)

(

)

,

|

(

α

B E

P(A|B,E)

T

T

0.95

T

F

0.94

F

T

0.29

F

F

0.01

Jan Dzwoni

Włamanie

Maria Dzwoni

Alarm

Wstrz

ą

sy

A P(J|A)
T

0.90

F

0.05

A

P(M|A)

T

0.70

F

0.01

P(B)

0.001

P(E)

0.002

©  F.A. Dul 2007

P(m|a)
0.70

P(j|a)
0.90

P(m|

¬

a)

0.01

P(j|

¬

a)

0.05

P(a|w,s)

0.95

P(

¬

a|w,s)

0.05

+

P(m|a)
0.70

P(j|a)
0.90

P(m|

¬

a)

0.01

P(j|

¬

a)

0.05

P(a|w,

¬

s)

0.94

P(

¬

a|w,

¬

s

)

0.06

+

0.70

0.63

0.70

0.63

0.01

0.0005

0.01

0.0005

0.59223

0.5985

0.000025

0.598525

0.01197

0.5922

0.00003

0.591041

background image

14.4.  Wnioskowanie 

ś

cisłe w sieci Bayesa

Wyznaczenie prawdopodobie

ń

stwa dla  

¬

w = (Włamanie=fałsz)

P(s)
0.002

P(

¬

s)

0.998

P(

¬

w)

0.999

+

0.000366

0.001493

P(

¬

w|j,m) = 

αααα ××××

0.001492

¬

¬

=

¬

s

a

a

m

P

a

j

P

s

w

a

P

s

P

w

P

m

j

w

P

)

|

(

)

|

(

)

,

|

(

)

(

)

(

)

,

|

(

α

B E

P(A|B,E)

T

T

0.95

T

F

0.94

F

T

0.29

F

F

0.01

Jan Dzwoni

Włamanie

Maria Dzwoni

Alarm

Wstrz

ą

sy

A P(J|A)
T

0.90

F

0.05

A

P(M|A)

T

0.70

F

0.01

P(B)

0.001

P(E)

0.002

©  F.A. Dul 2007

P(m|a)
0.70

P(j|a)
0.90

P(m|

¬

a)

0.01

P(j|

¬

a)

0.05

P(a|

¬

w,s)

0.29

P(

¬

a|

¬

w,s)

0.71

+

P(m|a)
0.70

P(j|a)
0.90

P(m|

¬

a)

0.01

P(j|

¬

a)

0.05

P(a|

¬

w,

¬

s)

0.001

P(

¬

a|

¬

w,

¬

s)

0.999

+

0.70

0.63

0.70

0.63

0.01

0.0005

0.01

0.0005

0.00113

0.1827

0.000355

0.183055

0.000366

0.00063

0.0005

0.001127

background image

14.4.  Wnioskowanie 

ś

cisłe w sieci Bayesa

Prawdopodobie

ń

stwo zdarzenia 

P(W | j,m)

jest wi

ę

c równe

)

)

,

|

(

,

)

,

|

(

(

)

,

|

(

m

j

w

P

m

j

w

P

m

j

W

¬

=

P

479.8245

0.001492)

0.000592

/(

1

=

+

=

α

=

×

=

)

,

(

)

,

|

(

0.001492

0.000592

479.8245

m

j

W

P

)

0.716

,

0.284

(

=

Oznacza to, 

Ŝ

e prawdopodobie

ń

stwo włamania gdy dzwoni

ą

 

)

0.001492

,

0.000592

(

×

×

=

α

α

©  F.A. Dul 2007

Oznacza to, 

Ŝ

e prawdopodobie

ń

stwo włamania gdy dzwoni

ą

 

oboje s

ą

siedzi wynosi ok. 28%

Wady wnioskowania 

ś

cisłego w sieciach Bayesa:

• Składniki wyra

Ŝ

enia dla prawdopodobie

ń

stwa s

ą

 obliczane 

wielokrotnie, np. P(j|a)P(m|a) czy P(j|

¬

a)P(m|

¬

a).

• Zło

Ŝ

ono

ść

 obliczeniowa dla sieci z zmiennymi boolowskimi 

jest wykładnicza -

O(2

n

)

ale jest ni

Ŝ

sza ni

Ŝ

 w przypadku 

ogólnym, w którym 

O(n 

·

2

n

)

.

background image

14.5. Wnioskowanie przybli

Ŝ

one w sieci Bayesa

Ze wzgl

ę

du na wielk

ą

 zło

Ŝ

ono

ść

 obliczeniow

ą

 wyznaczania 

prawdopodobie

ń

stwa na podstawie sieci Bayesa w praktyce 

stosuje si

ę

 najcz

ęś

ciej wnioskowania przybli

Ŝ

one.

Algorytm Monte Carlo próbkowania zmiennych losowych
Idea: przy du

Ŝ

ej liczbie próbkowa

ń

 prawdopodobie

ń

stwo okre-

ś

lone jako liczba próbek danej warto

ś

ci zmiennej w stosunku 

do liczby wszystkich próbkowa

ń

 d

ąŜ

y do warto

ś

ci dokładnej,

x

N

)

(

©  F.A. Dul 2007

Przykład: rzut monet

ą

Moneta = 

〈〈〈〈

orzeł , reszka 

〉〉〉〉

, prawdopo-

dobie

ń

stwo 

ś

cisłe P(Moneta) = 

〈〈〈〈

0.5 , 0.5 

〉〉〉〉

, za

ś

 przybli

Ŝ

one

N

x

N

x

P

N

)

(

lim

)

(

=

N

orzeł

N

orzeł

P

N

)

(

)

(

...}

,

49

.

0

,

43

.

0

,

55

.

0

,

4

.

0

,

3

.

0

,

0

.

0

{

)

(

=

reszka

P

N

N

reszka

N

reszka

P

N

)

(

)

(

Przykład: kolejne rzuty monet

ą

 prowadz

ą

 do oszacowa

ń

:

background image

14.5.  Wnioskowanie przybli

Ŝ

one w sieci Bayesa

Próbkowanie losowe w sieci Bayesa.

Chmury

P(C)=0.5

Zasada: próbkowanie ka

Ŝ

dej zmiennej w kolejno

ś

ci okre

ś

lonej 

przez sie

ć

.

Przykład: sie

ć

 Bayesa dla problemu mokrej trawy, uporz

ą

dko-

wana nast

ę

puj

ą

co: [ Chmury, Zraszacz, Deszcz, MokraTrawa ]

©  F.A. Dul 2007

Zraszacz

MokraTrawa

Deszcz

C P(Z)

t

f

0.10

 0.50

C P(D)

t

f

0.80
0.20

Z  D P(D)

t    t
t

    

f

f

    

t

f   

 

f

0.99
0.90
0.90
0.00

background image

14.5.  Wnioskowanie przybli

Ŝ

one w sieci Bayesa

Próbkowanie przykładowe w sieci:

1. Próbkowanie P(Chmury) 

〈〈〈〈

0.5, 0.5 

〉〉〉〉

wynik: 

prawda

;

2. Próbkowanie P(Zraszacz|Chmury=

prawda

〈〈〈〈

0.1, 0.9 

〉〉〉〉

wynik: 

fałsz

;

3. Próbkowanie P(Deszcz|Chmury=

prawda

〈〈〈〈

0.8, 0.2 

〉〉〉〉

wynik: 

prawda

;

4. Próbkowanie P(MokraTrawa|Zraszacz=

fałsz

,Deszcz=

prawda

〈〈〈〈

0.9,0.1

〉〉〉〉

wynik: 

prawda

;

Próbkowanie zwróciło wi

ę

c zdarzenie zgodne z sieci

ą

Z

1

[

prawda

,

fałsz

,

prawda

prawda

].

Kolejne próbkowanie mo

Ŝ

e zwróci

ć

 inne zdarzenie, np. 

©  F.A. Dul 2007

Kolejne próbkowanie mo

Ŝ

e zwróci

ć

 inne zdarzenie, np. 

Z

2

[

prawda

prawda

,

fałsz

prawda

].

=

=

n

i

i

i

n

PS

X

rodzice

x

P

x

x

S

1

1

))

(

|

(

)

,...,

(

Ze sposobu próbkowania wynika, ze prawdopodobie

ń

stwo 

S

PS

(x

1

,...,x

n

) wybranej próbki [x

1

,...,x

n

] wynosi

i jest równe prawdopodobie

ń

stwu zdarzenia reprezentowanym 

przez sie

ć

 Bayesa

)

,...,

(

)

,...,

(

1

1

n

n

PS

x

x

P

x

x

S

=

background image

14.5.  Wnioskowanie przybli

Ŝ

one w sieci Bayesa

Je

Ŝ

eli N

PS

(x

1

,...,x

n

) jest liczb

ą

 wylosowa

ń

 próbki [x

1

,...,x

n

], to

W przykładzie mokrej trawy prawdopodobie

ń

stwa zdarze

ń

 

wylosowanych z sieci Bayesa wynosz

ą

 

)

,...,

(

)

,...,

(

)

,...,

(

lim

1

1

1

n

n

PS

n

PS

N

x

x

P

x

x

S

N

x

x

N

=

=

S

PS

(Z

1

) = 0.5 

××××

0.9 

××××

0.8 

××××

0.9 = 0.324, 

S

PS

(Z

2

) = 0.5 

××××

0.1 

××××

0.2 

××××

0.9 = 0.009.

©  F.A. Dul 2007

S

PS

(Z

2

) = 0.5 

××××

0.1 

××××

0.2 

××××

0.9 = 0.009.

Przy du

Ŝ

ej liczbie próbkowa

ń

 zdarzenie Z

1

b

ę

dzie wybrane 

w 32.4%, za

ś

 zdarzenie Z

2

- tylko w 0.9% przypadków.

Koszt wnioskowania przybli

Ŝ

onego w sieciach Bayesa jest 

zazwyczaj du

Ŝ

o ni

Ŝ

szy ni

Ŝ

 koszt wnioskowania 

ś

cisłego,

C << O(2

n

)

Istniej

ą

 równie

Ŝ

 inne metody wnioskowania przybli

Ŝ

onego      

w sieciach Bayesa, np. metoda 

Monte Carlo dla ła

ń

cucha 

Markowa 

(Markov chain Monte Carlo).

background image

U

Ŝ

yteczno

ść

 sieci Bayesa

Sieci Bayesa stanowi

ą

 wygodn

ą

 form

ę

 reprezentacji 

zale

Ŝ

no

ś

ci zdarze

ń

.

Pozwalaj

ą

 te

Ŝ

 znacznie zredukowa

ć

 rozmiar  

reprezentacji a tak

Ŝ

e koszt wnioskowania 

stochastycznego.

Wnioskowanie przybli

Ŝ

one w sieciach Bayesa 

cechuje si

ę

 niskim kosztem przy zadowalaj

ą

cych 

©

F.A. Dul 2007

cechuje si

ę

 niskim kosztem przy zadowalaj

ą

cych 

dokładno

ś

ciach uzyskiwanych rozkładów 

prawdopodobie

ń

stw.

Sieci Bayesa s

ą

 równie

Ŝ

 wykorzystywane do opisu 

dynamicznych zjawisk stochastycznych stanowi

ą

podstaw

ę

 

filtru Kalmana

.

background image

14.7. Inne metody wnioskowania probabilistycznego 

Podej

ś

cie stochastyczne jest szeroko stosowane w wielu 

dziedzinach wiedzy i praktyki: w fizyce, genetyce, ekonomii, 
ubezpieczeniach, bankowo

ś

ci...

W sztucznej inteligencji podej

ś

cie probabilistyczne jest 

u

Ŝ

ywane dopiero od lat 70. XX wieku, głównie w systemach 

ekspertowych.

Powodem był wykładniczy koszt wnioskowania – wcze

ś

niej 

nie znano algorytmów dla sieci Bayesa. 

©  F.A. Dul 2007

nie znano algorytmów dla sieci Bayesa. 

Dlatego do wnioskowania w warunkach niepewno

ś

ci 

stosowano podej

ś

cia alternatywne, takie jak:

• Wnioskowanie 

domy

ś

lne

,

• Reprezentacja niepewno

ś

ci za pomoc

ą

 

reguł

,

• Reprezentacja ignorancji (teoria 

Dempstera-Shafera

),

• Reprezentacja nieprecyzyjno

ś

ci za pomoc

ą

 

logiki rozmytej

.

Panuje przekonanie, 

Ŝ

e wnioskowanie stochastyczne jest 

bardziej uniwersalne ni

Ŝ

 powy

Ŝ

sze wnioskowania alternatywne.

background image

14.7.   Inne metody wnioskowania probabilistycznego

Metody wnioskowania oparte na regułach
Metody wnioskowania wykorzystuj

ą

ce reguły s

ą

 podobne     

do metod logiki zda

ń

 lub pierwszego rz

ę

du.

Wnioskowanie logiczne jest uzupełnione czynnikiem 
okre

ś

laj

ą

cym stopie

ń

 wiarygodno

ś

ci 

(fudge factor)

, np.

A

25

|

0.3

zapewni dojazd na czas; 

Uwzgl

ę

dnienie stopnia wiarygodno

ś

ci umo

Ŝ

liwia „sterowanie” 

wnioskowaniem logicznym.  
Jednak z podej

ś

ciem takim wi

ąŜą

 si

ę

 trudno

ś

ci.  

©  F.A. Dul 2007

Jednak z podej

ś

ciem takim wi

ąŜą

 si

ę

 trudno

ś

ci.  

Przykład
Czy mokra trawa jest wynikiem deszczu, 
czy te

Ŝ

 wł

ą

czenia zraszacza?

Zraszacz

MokraTrawa

Deszcz

Mimo takich problemów wnioskowanie z 

czynnikiem pewno

ś

ci

jest stosowane z powodzeniem w wielu systemach 
ekspertowych (np. MYCIN).

– Zraszacz |

0.99

MokraTrawa;

– MokraTrawa |

0.7

Deszcz;

Problem: czy zraszacz powoduje deszcz?

background image

14.7.   Inne metody wnioskowania probabilistycznego

Teoria Dempstera-Shafera reprezentacji ignorancji

Teoria Dempstera-Shafera opisuje ró

Ŝ

nice pomi

ę

dzy 

niepewno

ś

ci

ą

 a 

ignorancj

ą

.  

Funkcja wiarygodno

ś

ci 

Bel(X)

opisuje prawdopodobie

ń

stwo 

tego, 

Ŝ

e obserwacje potwierdzaj

ą

 twierdzenie 

X

.

Przykład
Dla zdarzenia „Reszka” przy rzucie niepewn

ą

 monet

ą

 i przy 

braku obserwacji zarówno 

Bel(Reszka)=0

jak i 

Bel(

¬

Reszka)=0

.

Je

Ŝ

eli stwierdzi si

ę

 z 90% pewno

ś

ci

ą

Ŝ

e moneta jest dobra, 

©  F.A. Dul 2007

Je

Ŝ

eli stwierdzi si

ę

 z 90% pewno

ś

ci

ą

Ŝ

e moneta jest dobra, 

(

P(Reszka)=0.5

), to 

Bel(Reszka= 0.9

×

0.5 = 0.45

; podobnie 

Bel(

¬

Reszka= 0.45

Istniej

ą

ca 10% luka wyra

Ŝ

a niepewno

ść

 co do jako

ś

ci monety. 

Reguła Dempstera 

okre

ś

la sposób wyznaczania warto

ś

ci 

funkcji 

Bel 

na podstawie obserwacji.

Teoria Dempstera-Shafera definiuje przedziały prawdopodo-
bie

ń

stwa, np. dla wyrzucenia reszki przedział prawdopodo-

bie

ń

stwa wynosi [0,1] przed weryfikacj

ą

 monety, za

ś

 po jej 

weryfikacji [0.45,0.55].

background image

14.7.   Inne metody wnioskowania probabilistycznego

Logika rozmyta i reprezentacja nieprecyzyjno

ś

ci

Teoria zbiorów rozmytych okre

ś

la 

nieprecyzyjno

ść

 

twierdze

ń

.

Przykład
Czy zdanie „Jan jest wysoki” (wzrost 175cm) jest prawdziwe? 
Najcz

ę

stsza odpowied

ź

: Jan jest wysoki 

w pewnym stopniu”

.

UWAGA! 

Nieprecyzyjno

ść

nie jest niepewno

ś

ci

ą

(wzrost Jana 

jest znany).
Teoria zbiorów rozmytych okre

ś

la stopie

ń

 prawdziwo

ś

ci 

twierdze

ń

, np. Wysoki(Jan) 

[0,1] zamiast Wysoki(Jan)=fałsz.

©  F.A. Dul 2007

twierdze

ń

, np. Wysoki(Jan) 

[0,1] zamiast Wysoki(Jan)=fałsz.

Stopie

ń

 prawdziwo

ś

ci opisuje zazwyczaj rozkład typu 

probit

1.0                  1.5                 2.0       m      2.5

1.0

Wysoki

0.0

background image

14.7.   Inne metody wnioskowania probabilistycznego

Logika rozmyta i reprezentacja nieprecyzyjno

ś

ci

Logika rozmyta

umo

Ŝ

liwia wnioskowanie z wyra

Ŝ

eniami 

logicznymi okre

ś

lonymi w zbiorach rozmytych.

Miara prawdziwo

ś

ci okre

ś

lona jest regułami:

Problemy: T(Wysoki(Jan)) = 0.6, T(Ci

ęŜ

ki(Jan)= 0.4.

T(Wysoki(Jan)

Ci

ęŜ

ki(Jan)= 0.4  

OK.

• T(A

B) = min ( T(A) , T(B) ),

• T(A

B) = max ( T(A) , T(B) ),

• T(

¬

A) = 1 – T(A).

©  F.A. Dul 2007

Sterowanie rozmyte 

słu

Ŝ

y do syntezy sterowania przy u

Ŝ

yciu 

reguł rozmytych.
Sterowanie rozmyte jest szeroko stosowane w wielu 
urz

ą

dzeniach, np.: pralkach, kamerach wideo, sprz

ę

cie AGD.

T(Wysoki(Jan)

Ci

ęŜ

ki(Jan)= 0.4  

OK.

T(Wysoki(Jan)

¬

Wysoki(Jan)= 0.4  

???

background image

Podsumowanie

• Sieci Bayesa stanowi

ą

 naturaln

ą

 reprezentacj

ę

 

niezale

Ŝ

no

ś

ci warunkowej (indukowanej przyczynowo).

• Topologia sieci i tablice prawdopodobie

ń

stwa warunkowego 

(CPT) pozwalaj

ą

 na zwart

ą

 reprezentacj

ę

 rozkładu ł

ą

cznego 

prawdopodobie

ń

stwa.

• Sieci Bayesa s

ą

 szczególnie przydane i łatwe do zastosowa-

nia w systemach ekspertowych.

• Wnioskowanie 

ś

cisłe z u

Ŝ

yciem sieci Bayesa jest kosztowne 

©  F.A. Dul 2007

• Wnioskowanie 

ś

cisłe z u

Ŝ

yciem sieci Bayesa jest kosztowne 

~O(2

n

).

• Wnioskowanie przybli

Ŝ

one za pomoc

ą

 próbkowania zdarze

ń

 

pozwala obni

Ŝ

y

ć

 koszt oblicze

ń

 przy zachowaniu akcepto-

walnej dokładno

ś

ci wyznaczonych prawdopodobie

ń

stw.

• Zwykłe sieci Bayesa maj

ą

 cechy logiki zda

ń

, co ogranicza 

zakres ich zastosowania.

• Istniej

ą

 inne sposoby uwzgl

ę

dniania niepewno

ś

ci: reguły 

niepewno

ś

ci, reprezentacja ignorancji, logika rozmyta.