14 Wnioskowanie statystyczne w Nieznany (2)

background image

WPROWADZENIE

DO SZTUCZNEJ INTELIGENCJI

POLITECHNIKA WARSZAWSKA

WYDZIAŁ MECHANICZNY ENERGETYKI I LOTNICTWA

MEL

MEL

NS 586

Dr in

ż

. Franciszek Dul

© F.A. Dul 2007

background image

14. WNIOSKOWANIE

STATYSTYCZNE W SIECI BAYESA

© F.A. Dul 2007

STATYSTYCZNE W SIECI BAYESA

background image

Wnioskowanie statystyczne

Poka

ż

emy, jak zbudowa

ć

model

probabilistyczny

ś

wiata w postaci

tzw. sieci Bayesa, który posłu

ż

y

do efektywnego wnioskowania

do efektywnego wnioskowania
w warunkach niepewno

ś

ci.

© F.A. Dul 2007

background image

• Składnia i semantyka sieci Bayesa

• Przykłady sieci Bayesa

• Wnioskowanie

ś

cisłe i przybli

ż

one w sieciach Bayesa

• Inne rodzaje wnioskowania w warunkach niepewno

ś

ci

Plan rozdziału

© F.A. Dul 2007

background image

14.1. Sieci Bayesa

Sie

ć

Bayesa jest to graf acykliczny skierowany, który

umo

ż

liwia zapis graficzny zale

ż

no

ś

ci warunkowej zdarze

ń

.

Sie

ć

Bayesa umo

ż

liwia intuicyjne uj

ę

cie zale

ż

no

ś

ci

przyczynowych pomi

ę

dzy zmiennymi.

Sieci Bayesa pozwalaj

ą

przedstawi

ć

zwi

ęź

le rozkład ł

ą

czny

prawdopodobie

ń

stwa.

Składnia sieci Bayesa:

– zbiór w

ę

złów, po jednym dla ka

ż

dej zmiennej

losowej (w

ę

zły grafu),

Z

mienna

1

P(Z

1

)=0.12

© F.A. Dul 2007

losowej (w

ę

zły grafu),

Rozkład warunkowy jest przedstawiany najcz

ęś

ciej w postaci

tablic prawdopodobie

ń

stwa warunkowego

(conditional proba-

bility table, CPT), które podaj

ą

rozkład prawdopodobie

ń

stwa

warunkowego dla X

i

dla ka

ż

dej kombinacji warto

ś

ci rodziców.

Z

mienna

2

Z

mienna

3

– poł

ą

czenia odpowiadaj

ą

ce zale

ż

no

ś

ciom

pomi

ę

dzy zmiennymi (kraw

ę

dzie grafu),

– rozkład prawdopodobie

ń

stwa warunkowego

ka

ż

dego w

ę

zła przy znanych warto

ś

ciach

rozkładu prawdopodobie

ń

stwa rodziców,

P(X

i

| Rodzice(X

i

))

Z

1

P

(Z

2

|Z

1

)

t

f

0.80
0.20

Z

1

P(Z

3

|Z

1

)

t

f

0.45
0.06

background image

14.1. Sieci Bayesa

Przykład sieci Bayesa

Sie

ć

Bayesa dla modelu opisuj

ą

cego zale

ż

no

ś

ci pomi

ę

dzy

bólem z

ę

ba, ubytkiem, wykryciem ubytku oraz pogod

ą

.

• Zmienne losowe zadania :BólZ

ę

ba, Ubytek, Wykrycie

oraz Pogoda.

Pogoda

Ubytek

© F.A. Dul 2007

BólZ

ę

ba

Wykrycie

Topologia sieci Bayesa pozwala opisa

ć

niezale

ż

no

ść

absolutn

ą

lub warunkow

ą

zmiennych.

BólZ

ę

ba i Wykrycie s

ą

niezale

ż

ne warunkowo przy danej

warto

ś

ci zmiennej Ubytek.

Pogoda jest niezale

ż

na od pozostałych zmiennych

(i vice versa).

background image

14.1. Sieci Bayesa

Bardziej zło

ż

ony przykład sieci Bayesa

• Opis problemu

Jestem w pracy. Dzwoni do mnie s

ą

siad Jan z informacj

ą

,

ż

e uruchomił si

ę

alarm w moim domu. Druga s

ą

siadka, Maria,

nie dzwoni. Alarm jest czasami wł

ą

czany przez ró

ż

ne wstrz

ą

sy.

Czy to jest włamanie?

• Zmienne losowe (w nawiasach nazwy skrócone):

Włamanie (W), Wstrz

ą

sy (S), Alarm (A),

MariaDzwoni (M), JanDzwoni (J).

© F.A. Dul 2007

MariaDzwoni (M), JanDzwoni (J).

• Wiedza o zadaniu:

– Alarm mo

ż

e uruchomi

ć

włamywacz.

– Alarm mog

ą

te

ż

uruchomi

ć

wstrz

ą

sy, np. od przelatuj

ą

cego

samolotu.

– Wł

ą

czony alarm mo

ż

e skłoni

ć

Mari

ę

lub Jana do zadzwonienia

do mnie.

• Topologia sieci Bayesa powinna odzwierciedla

ć

powy

ż

sz

ą

wiedz

ę

przyczynow

ą

.

background image

14.1. Sieci Bayesa

Sie

ć

Bayesa dla problemu włamania

P(S)

0.002

P(W)

0.001

W S

P(A|W,S)

T

T

0.95

W

łamanie

W

s

trz

ą

sy

© F.A. Dul 2007

T

T

0.95

T

F

0.94

F

T

0.29

F

F

0.01

J

an Dzwoni

M

aria Dzwoni

A

larm

A P(J|A)
T

0.90

F

0.05

A

P(M|A)

T

0.70

F

0.01

background image

14.1. Sieci Bayesa

Zwarto

ść

reprezentacji za pomoc

ą

sieci Bayesa

• Tablica CPT dla zmiennej losowej boolowskiej X

i

maj

ą

cej k boolowskich rodziców ma 2

k

wierszy

dla wszystkich kombinacji warto

ś

ci zmiennych

rodziców.

• Ka

ż

dy wiersz zawiera prawdopodobie

ń

stwo

p dla X

i

= prawda,

1-p dla X

i

= fałsz.

• Je

ż

eli jest n zmiennych i ka

ż

da zmienna

S

W

A

© F.A. Dul 2007

• Je

ż

eli jest n zmiennych i ka

ż

da zmienna

ma nie wi

ę

cej ni

ż

k rodziców to cała sie

ć

opisana jest za pomoc

ą

O(n

·

2

k

)

liczb.

• Rozmiar ro

ś

nie wi

ę

c liniowo wzgl

ę

dem n, w przeciwie

ń

stwie

do wzrostu wykładniczego

O(2

n

)

dla pełnego rozkładu

ł

ą

cznego.

• Dla problemu włamania jest to 1 + 1 + 4 + 2 + 2 = 10 liczb

(w porównaniu z 2

5

-1 = 31 w przypadku ogólnym).

M

J

background image

14.2. Semantyka sieci Bayesa

Rozkład ł

ą

czny prawdopodobie

ń

stwa jest iloczynem

rozkładów w

ę

złowych

Wnioskowanie na podstawie sieci Bayesa jest analogiczne
do wnioskowania z rozkładu ł

ą

cznego.

Przykład

W problemie włamania rozkład prawdopodobie

ń

stwa dla zdarzenia

„Jan dzwoni, Maria dzwoni, alarm działa, nie ma włamania i nie ma

=

=

n

i

i

i

n

X

Rodzice

X

X

X

1

1

)

)

(

|

(

)

,...,

(

P

P

© F.A. Dul 2007

„Jan dzwoni, Maria dzwoni, alarm działa, nie ma włamania i nie ma
wstrz

ą

sów” (j

m

a

¬

b

¬

e ) wynosi

P( j

m

a

¬

b

¬

e ) =

= P(j | a)

×

P(m | a)

×

×

P(a |

¬

b,

¬

e)

×

P(

¬

b)

×

P(

¬

e)

= 0.90

×

0.70

×

0.001

×

0.999

×

0.998

= 0.00062

B E

P(A|B,E)

T

T

0.95

T

F

0.94

F

T

0.29

F

F

0.01

Jan Dzwoni

Włamanie

Maria Dzwoni

Alarm

Wstrz

ą

sy

A P(J|A)
T

0.90

F

0.05

A

P(M|A)

T

0.70

F

0.01

P(B)

0.001

P(E)

0.002

background image

14.2. Semantyka sieci Bayesa

Budowanie sieci Bayesa

1. Wybra

ć

porz

ą

dek zmiennych losowych X

1

, … ,X

n

;

2. Dla i = 1, … , n :

doda

ć

X

i

do sieci;

wybra

ć

spo

ś

ród X

1

, … ,X

i-1

takich rodziców, dla których

P(X

i

| Rodzice(X

i

)) = P(X

i

| X

1

, ... X

i-1

)

© F.A. Dul 2007

Taki wybór rodziców gwarantuje wła

ś

ciwe reprezentowanie

rozkładu ł

ą

cznego:

P(X

1

, … ,X

n

)

=

i =1

P(X

i

| X

1

, … , X

i-1

) (reguła ła

ń

cuchowa)

=

i =1

P(X

i

| Rodzice(X

i

))

(z konstrukcji)

Topologia sieci oraz jej zwarto

ść

zale

żą

od pocz

ą

tkowego

wyboru porz

ą

dku zmiennych.

background image

14.2. Semantyka sieci Bayesa

Przykład budowania sieci Bayesa

P(J | M) = P(J)?

Załó

ż

my,

ż

e wybrali

ś

my porz

ą

dek zmiennych: M, J, A, W, S;

J

an Dzwoni

M

aria Dzwoni

A

larm

P(A | J, M) = P(A | J)?

P(A | J, M) = P(A)?

P(W | A, J, M) = P(W | A)?

P(W | A, J, M) = P(W)?

Nie

Nie

Nie

Nie

Tak

© F.A. Dul 2007

• Inny porz

ą

dek zmiennych wprowadził dwie nowe kraw

ę

dzie.

• Sie

ć

jest mniej zwarta ni

ż

poprzednio: trzeba zapami

ę

ta

ć

1 + 2 + 4 + 2 + 4 = 13 liczb.

• Okre

ś

lanie niezale

ż

no

ś

ci warunkowej jest trudne

w kierunkach nieprzyczynowych (noncausal).

• Wydaje si

ę

,

ż

e modele przyczynowe i niezale

ż

no

ść

warunkowa s

ą

“wbudowane” w natur

ę

ludzk

ą

!

W

łamanie

W

s

trz

ą

sy

P(W | A, J, M) = P(W | A)?

P(S | W, A, J, M) = P(S | A, W)?

P(S | W, A ,J, M) = P(S | A)?

Nie

Tak

Tak

background image

14.4. Wnioskowanie

ś

cisłe w sieci Bayesa

=

=

y

y

e

e

e

)

,

,

(

)

,

(

)

|

(

X

X

X

P

P

P

α

α

Prawdopodobie

ń

stwo zmiennej

X

przy danych warto

ś

ciach

zmiennych

E =

e jest równe

Wyznaczmy w zagadnieniu włamania prawdopodobie

ń

stwo

zdarzenia

P(Wlamanie|JanDzwoni=prawda,MariaDzwoni=prawda)

∑∑

=

=

m

j

a

s

W

m

j

W

m

j

W

)

,

,

,

,

(

)

,

,

(

)

,

|

(

P

P

P

α

α

© F.A. Dul 2007

Dla przypadku w = (Włamanie=prawda) otrzymujemy

∑∑

s

a

∑∑

=

s

a

a

m

P

a

j

P

s

w

a

P

s

P

w

P

m

j

w

P

)

|

(

)

|

(

)

,

|

(

)

(

)

(

)

,

|

(

α

gdzie: j = (JanDzwoni=prawda), m = (MariaDzwoni=prawda)

Po przegrupowaniu składników otrzymujemy

=

s

a

a

m

P

a

j

P

s

w

a

P

s

P

w

P

m

j

w

P

)

|

(

)

|

(

)

,

|

(

)

(

)

(

)

,

|

(

α

background image

14.4. Wnioskowanie

ś

cisłe w sieci Bayesa

Wyznaczenie prawdopodobie

ń

stwa dla

w = (Włamanie=prawda)

P(s)
0.002

P(

¬

s)

0.998

P(w)

0.001

+

0.01197

0.592238

P(w|j,m) =

αααα ××××

0.000592238

=

s

a

a

m

P

a

j

P

s

w

a

P

s

P

w

P

m

j

w

P

)

|

(

)

|

(

)

,

|

(

)

(

)

(

)

,

|

(

α

B E

P(A|B,E)

T

T

0.95

T

F

0.94

F

T

0.29

F

F

0.01

Jan Dzwoni

Włamanie

Maria Dzwoni

Alarm

Wstrz

ą

sy

A P(J|A)
T

0.90

F

0.05

A

P(M|A)

T

0.70

F

0.01

P(B)

0.001

P(E)

0.002

© F.A. Dul 2007

P(m|a)
0.70

P(j|a)
0.90

P(m|

¬

a)

0.01

P(j|

¬

a)

0.05

P(a|w,s)

0.95

P(

¬

a|w,s)

0.05

+

P(m|a)
0.70

P(j|a)
0.90

P(m|

¬

a)

0.01

P(j|

¬

a)

0.05

P(a|w,

¬

s)

0.94

P(

¬

a|w,

¬

s

)

0.06

+

0.70

0.63

0.70

0.63

0.01

0.0005

0.01

0.0005

0.59223

0.5985

0.000025

0.598525

0.01197

0.5922

0.00003

0.591041

background image

14.4. Wnioskowanie

ś

cisłe w sieci Bayesa

Wyznaczenie prawdopodobie

ń

stwa dla

¬

w = (Włamanie=fałsz)

P(s)
0.002

P(

¬

s)

0.998

P(

¬

w)

0.999

+

0.000366

0.001493

P(

¬

w|j,m) =

αααα ××××

0.001492

¬

¬

=

¬

s

a

a

m

P

a

j

P

s

w

a

P

s

P

w

P

m

j

w

P

)

|

(

)

|

(

)

,

|

(

)

(

)

(

)

,

|

(

α

B E

P(A|B,E)

T

T

0.95

T

F

0.94

F

T

0.29

F

F

0.01

Jan Dzwoni

Włamanie

Maria Dzwoni

Alarm

Wstrz

ą

sy

A P(J|A)
T

0.90

F

0.05

A

P(M|A)

T

0.70

F

0.01

P(B)

0.001

P(E)

0.002

© F.A. Dul 2007

P(m|a)
0.70

P(j|a)
0.90

P(m|

¬

a)

0.01

P(j|

¬

a)

0.05

P(a|

¬

w,s)

0.29

P(

¬

a|

¬

w,s)

0.71

+

P(m|a)
0.70

P(j|a)
0.90

P(m|

¬

a)

0.01

P(j|

¬

a)

0.05

P(a|

¬

w,

¬

s)

0.001

P(

¬

a|

¬

w,

¬

s)

0.999

+

0.70

0.63

0.70

0.63

0.01

0.0005

0.01

0.0005

0.00113

0.1827

0.000355

0.183055

0.000366

0.00063

0.0005

0.001127

background image

14.4. Wnioskowanie

ś

cisłe w sieci Bayesa

Prawdopodobie

ń

stwo zdarzenia

P(W | j,m)

jest wi

ę

c równe

)

)

,

|

(

,

)

,

|

(

(

)

,

|

(

m

j

w

P

m

j

w

P

m

j

W

¬

=

P

479.8245

0.001492)

0.000592

/(

1

=

+

=

α

=

×

=

)

,

(

)

,

|

(

0.001492

0.000592

479.8245

m

j

W

P

)

0.716

,

0.284

(

=

Oznacza to,

ż

e prawdopodobie

ń

stwo włamania gdy dzwoni

ą

)

0.001492

,

0.000592

(

×

×

=

α

α

© F.A. Dul 2007

Oznacza to,

ż

e prawdopodobie

ń

stwo włamania gdy dzwoni

ą

oboje s

ą

siedzi wynosi ok. 28%

Wady wnioskowania

ś

cisłego w sieciach Bayesa:

• Składniki wyra

ż

enia dla prawdopodobie

ń

stwa s

ą

obliczane

wielokrotnie, np. P(j|a)P(m|a) czy P(j|

¬

a)P(m|

¬

a).

• Zło

ż

ono

ść

obliczeniowa dla sieci z n zmiennymi boolowskimi

jest wykładnicza -

O(2

n

)

ale jest ni

ż

sza ni

ż

w przypadku

ogólnym, w którym

O(n

·

2

n

)

.

background image

14.5. Wnioskowanie przybli

ż

one w sieci Bayesa

Ze wzgl

ę

du na wielk

ą

zło

ż

ono

ść

obliczeniow

ą

wyznaczania

prawdopodobie

ń

stwa na podstawie sieci Bayesa w praktyce

stosuje si

ę

najcz

ęś

ciej wnioskowania przybli

ż

one.

Algorytm Monte Carlo próbkowania zmiennych losowych
Idea: przy du

ż

ej liczbie próbkowa

ń

prawdopodobie

ń

stwo okre-

ś

lone jako liczba próbek danej warto

ś

ci zmiennej w stosunku

do liczby wszystkich próbkowa

ń

d

ąż

y do warto

ś

ci dokładnej,

x

N

)

(

© F.A. Dul 2007

Przykład: rzut monet

ą

, Moneta =

〈〈〈〈

orzeł , reszka

〉〉〉〉

, prawdopo-

dobie

ń

stwo

ś

cisłe P(Moneta) =

〈〈〈〈

0.5 , 0.5

〉〉〉〉

, za

ś

przybli

ż

one

N

x

N

x

P

N

)

(

lim

)

(

=

N

orzeł

N

orzeł

P

N

)

(

)

(

...}

,

49

.

0

,

43

.

0

,

55

.

0

,

4

.

0

,

3

.

0

,

0

.

0

{

)

(

=

reszka

P

N

N

reszka

N

reszka

P

N

)

(

)

(

Przykład: kolejne rzuty monet

ą

prowadz

ą

do oszacowa

ń

:

background image

14.5. Wnioskowanie przybli

ż

one w sieci Bayesa

Próbkowanie losowe w sieci Bayesa.

Chmury

P(C)=0.5

Zasada: próbkowanie ka

ż

dej zmiennej w kolejno

ś

ci okre

ś

lonej

przez sie

ć

.

Przykład: sie

ć

Bayesa dla problemu mokrej trawy, uporz

ą

dko-

wana nast

ę

puj

ą

co: [ Chmury, Zraszacz, Deszcz, MokraTrawa ]

© F.A. Dul 2007

Zraszacz

MokraTrawa

Deszcz

C P(Z)

t

f

0.10

0.50

C P(D)

t

f

0.80
0.20

Z D P(D)

t t
t

f

f

t

f

f

0.99
0.90
0.90
0.00

background image

14.5. Wnioskowanie przybli

ż

one w sieci Bayesa

Próbkowanie przykładowe w sieci:

1. Próbkowanie P(Chmury) =

〈〈〈〈

0.5, 0.5

〉〉〉〉

wynik:

prawda

;

2. Próbkowanie P(Zraszacz|Chmury=

prawda

) =

〈〈〈〈

0.1, 0.9

〉〉〉〉

wynik:

fałsz

;

3. Próbkowanie P(Deszcz|Chmury=

prawda

) =

〈〈〈〈

0.8, 0.2

〉〉〉〉

wynik:

prawda

;

4. Próbkowanie P(MokraTrawa|Zraszacz=

fałsz

,Deszcz=

prawda

) =

〈〈〈〈

0.9,0.1

〉〉〉〉

wynik:

prawda

;

Próbkowanie zwróciło wi

ę

c zdarzenie zgodne z sieci

ą

Z

1

= [

prawda

,

fałsz

,

prawda

,

prawda

].

Kolejne próbkowanie mo

ż

e zwróci

ć

inne zdarzenie, np.

© F.A. Dul 2007

Kolejne próbkowanie mo

ż

e zwróci

ć

inne zdarzenie, np.

Z

2

= [

prawda

,

prawda

,

fałsz

,

prawda

].

=

=

n

i

i

i

n

PS

X

rodzice

x

P

x

x

S

1

1

))

(

|

(

)

,...,

(

Ze sposobu próbkowania wynika, ze prawdopodobie

ń

stwo

S

PS

(x

1

,...,x

n

) wybranej próbki [x

1

,...,x

n

] wynosi

i jest równe prawdopodobie

ń

stwu zdarzenia reprezentowanym

przez sie

ć

Bayesa

)

,...,

(

)

,...,

(

1

1

n

n

PS

x

x

P

x

x

S

=

background image

14.5. Wnioskowanie przybli

ż

one w sieci Bayesa

Je

ż

eli N

PS

(x

1

,...,x

n

) jest liczb

ą

wylosowa

ń

próbki [x

1

,...,x

n

], to

W przykładzie mokrej trawy prawdopodobie

ń

stwa zdarze

ń

wylosowanych z sieci Bayesa wynosz

ą

)

,...,

(

)

,...,

(

)

,...,

(

lim

1

1

1

n

n

PS

n

PS

N

x

x

P

x

x

S

N

x

x

N

=

=

S

PS

(Z

1

) = 0.5

××××

0.9

××××

0.8

××××

0.9 = 0.324,

S

PS

(Z

2

) = 0.5

××××

0.1

××××

0.2

××××

0.9 = 0.009.

© F.A. Dul 2007

S

PS

(Z

2

) = 0.5

××××

0.1

××××

0.2

××××

0.9 = 0.009.

Przy du

ż

ej liczbie próbkowa

ń

N zdarzenie Z

1

b

ę

dzie wybrane

w 32.4%, za

ś

zdarzenie Z

2

- tylko w 0.9% przypadków.

Koszt C wnioskowania przybli

ż

onego w sieciach Bayesa jest

zazwyczaj du

ż

o ni

ż

szy ni

ż

koszt wnioskowania

ś

cisłego,

C << O(2

n

)

Istniej

ą

równie

ż

inne metody wnioskowania przybli

ż

onego

w sieciach Bayesa, np. metoda

Monte Carlo dla ła

ń

cucha

Markowa

(Markov chain Monte Carlo).

background image

U

ż

yteczno

ść

sieci Bayesa

Sieci Bayesa stanowi

ą

wygodn

ą

form

ę

reprezentacji

zale

ż

no

ś

ci zdarze

ń

.

Pozwalaj

ą

te

ż

znacznie zredukowa

ć

rozmiar

reprezentacji a tak

ż

e koszt wnioskowania

stochastycznego.

Wnioskowanie przybli

ż

one w sieciach Bayesa

cechuje si

ę

niskim kosztem przy zadowalaj

ą

cych

©

F.A. Dul 2007

cechuje si

ę

niskim kosztem przy zadowalaj

ą

cych

dokładno

ś

ciach uzyskiwanych rozkładów

prawdopodobie

ń

stw.

Sieci Bayesa s

ą

równie

ż

wykorzystywane do opisu

dynamicznych zjawisk stochastycznych stanowi

ą

c

podstaw

ę

filtru Kalmana

.

background image

14.7. Inne metody wnioskowania probabilistycznego

Podej

ś

cie stochastyczne jest szeroko stosowane w wielu

dziedzinach wiedzy i praktyki: w fizyce, genetyce, ekonomii,
ubezpieczeniach, bankowo

ś

ci...

W sztucznej inteligencji podej

ś

cie probabilistyczne jest

u

ż

ywane dopiero od lat 70. XX wieku, głównie w systemach

ekspertowych.

Powodem był wykładniczy koszt wnioskowania – wcze

ś

niej

nie znano algorytmów dla sieci Bayesa.

© F.A. Dul 2007

nie znano algorytmów dla sieci Bayesa.

Dlatego do wnioskowania w warunkach niepewno

ś

ci

stosowano podej

ś

cia alternatywne, takie jak:

• Wnioskowanie

domy

ś

lne

,

• Reprezentacja niepewno

ś

ci za pomoc

ą

reguł

,

• Reprezentacja ignorancji (teoria

Dempstera-Shafera

),

• Reprezentacja nieprecyzyjno

ś

ci za pomoc

ą

logiki rozmytej

.

Panuje przekonanie,

ż

e wnioskowanie stochastyczne jest

bardziej uniwersalne ni

ż

powy

ż

sze wnioskowania alternatywne.

background image

14.7. Inne metody wnioskowania probabilistycznego

Metody wnioskowania oparte na regułach
Metody wnioskowania wykorzystuj

ą

ce reguły s

ą

podobne

do metod logiki zda

ń

lub pierwszego rz

ę

du.

Wnioskowanie logiczne jest uzupełnione czynnikiem
okre

ś

laj

ą

cym stopie

ń

wiarygodno

ś

ci

(fudge factor)

, np.

A

25

|

0.3

zapewni dojazd na czas;

Uwzgl

ę

dnienie stopnia wiarygodno

ś

ci umo

ż

liwia „sterowanie”

wnioskowaniem logicznym.
Jednak z podej

ś

ciem takim wi

ążą

si

ę

trudno

ś

ci.

© F.A. Dul 2007

Jednak z podej

ś

ciem takim wi

ążą

si

ę

trudno

ś

ci.

Przykład
Czy mokra trawa jest wynikiem deszczu,
czy te

ż

ą

czenia zraszacza?

Zraszacz

MokraTrawa

Deszcz

Mimo takich problemów wnioskowanie z

czynnikiem pewno

ś

ci

jest stosowane z powodzeniem w wielu systemach
ekspertowych (np. MYCIN).

Zraszacz |

0.99

MokraTrawa;

MokraTrawa |

0.7

Deszcz;

Problem: czy zraszacz powoduje deszcz?

background image

14.7. Inne metody wnioskowania probabilistycznego

Teoria Dempstera-Shafera reprezentacji ignorancji

Teoria Dempstera-Shafera opisuje ró

ż

nice pomi

ę

dzy

niepewno

ś

ci

ą

a

ignorancj

ą

.

Funkcja wiarygodno

ś

ci

Bel(X)

opisuje prawdopodobie

ń

stwo

tego,

ż

e obserwacje potwierdzaj

ą

twierdzenie

X

.

Przykład
Dla zdarzenia „Reszka” przy rzucie niepewn

ą

monet

ą

i przy

braku obserwacji zarówno

Bel(Reszka)=0

jak i

Bel(

¬

Reszka)=0

.

Je

ż

eli stwierdzi si

ę

z 90% pewno

ś

ci

ą

,

ż

e moneta jest dobra,

© F.A. Dul 2007

Je

ż

eli stwierdzi si

ę

z 90% pewno

ś

ci

ą

,

ż

e moneta jest dobra,

(

P(Reszka)=0.5

), to

Bel(Reszka) = 0.9

×

0.5 = 0.45

; podobnie

Bel(

¬

Reszka) = 0.45

.

Istniej

ą

ca 10% luka wyra

ż

a niepewno

ść

co do jako

ś

ci monety.

Reguła Dempstera

okre

ś

la sposób wyznaczania warto

ś

ci

funkcji

Bel

na podstawie obserwacji.

Teoria Dempstera-Shafera definiuje przedziały prawdopodo-
bie

ń

stwa, np. dla wyrzucenia reszki przedział prawdopodo-

bie

ń

stwa wynosi [0,1] przed weryfikacj

ą

monety, za

ś

po jej

weryfikacji [0.45,0.55].

background image

14.7. Inne metody wnioskowania probabilistycznego

Logika rozmyta i reprezentacja nieprecyzyjno

ś

ci

Teoria zbiorów rozmytych okre

ś

la

nieprecyzyjno

ść

twierdze

ń

.

Przykład
Czy zdanie „Jan jest wysoki” (wzrost 175cm) jest prawdziwe?
Najcz

ę

stsza odpowied

ź

: Jan jest wysoki

w pewnym stopniu”

.

UWAGA!

Nieprecyzyjno

ść

nie jest niepewno

ś

ci

ą

(wzrost Jana

jest znany).
Teoria zbiorów rozmytych okre

ś

la stopie

ń

prawdziwo

ś

ci

twierdze

ń

, np. Wysoki(Jan)

[0,1] zamiast Wysoki(Jan)=fałsz.

© F.A. Dul 2007

twierdze

ń

, np. Wysoki(Jan)

[0,1] zamiast Wysoki(Jan)=fałsz.

Stopie

ń

prawdziwo

ś

ci opisuje zazwyczaj rozkład typu

probit

1.0 1.5 2.0 m 2.5

1.0

Wysoki

0.0

background image

14.7. Inne metody wnioskowania probabilistycznego

Logika rozmyta i reprezentacja nieprecyzyjno

ś

ci

Logika rozmyta

umo

ż

liwia wnioskowanie z wyra

ż

eniami

logicznymi okre

ś

lonymi w zbiorach rozmytych.

Miara prawdziwo

ś

ci T okre

ś

lona jest regułami:

Problemy: T(Wysoki(Jan)) = 0.6, T(Ci

ęż

ki(Jan)) = 0.4.

T(Wysoki(Jan)

Ci

ęż

ki(Jan)) = 0.4

OK.

T(A

B) = min ( T(A) , T(B) ),

T(A

B) = max ( T(A) , T(B) ),

T(

¬

A) = 1 – T(A).

© F.A. Dul 2007

Sterowanie rozmyte

słu

ż

y do syntezy sterowania przy u

ż

yciu

reguł rozmytych.
Sterowanie rozmyte jest szeroko stosowane w wielu
urz

ą

dzeniach, np.: pralkach, kamerach wideo, sprz

ę

cie AGD.

T(Wysoki(Jan)

Ci

ęż

ki(Jan)) = 0.4

OK.

T(Wysoki(Jan)

¬

Wysoki(Jan)) = 0.4

???

background image

Podsumowanie

• Sieci Bayesa stanowi

ą

naturaln

ą

reprezentacj

ę

niezale

ż

no

ś

ci warunkowej (indukowanej przyczynowo).

• Topologia sieci i tablice prawdopodobie

ń

stwa warunkowego

(CPT) pozwalaj

ą

na zwart

ą

reprezentacj

ę

rozkładu ł

ą

cznego

prawdopodobie

ń

stwa.

• Sieci Bayesa s

ą

szczególnie przydane i łatwe do zastosowa-

nia w systemach ekspertowych.

• Wnioskowanie

ś

cisłe z u

ż

yciem sieci Bayesa jest kosztowne

© F.A. Dul 2007

• Wnioskowanie

ś

cisłe z u

ż

yciem sieci Bayesa jest kosztowne

~O(2

n

).

• Wnioskowanie przybli

ż

one za pomoc

ą

próbkowania zdarze

ń

pozwala obni

ż

y

ć

koszt oblicze

ń

przy zachowaniu akcepto-

walnej dokładno

ś

ci wyznaczonych prawdopodobie

ń

stw.

• Zwykłe sieci Bayesa maj

ą

cechy logiki zda

ń

, co ogranicza

zakres ich zastosowania.

• Istniej

ą

inne sposoby uwzgl

ę

dniania niepewno

ś

ci: reguły

niepewno

ś

ci, reprezentacja ignorancji, logika rozmyta.


Wyszukiwarka

Podobne podstrony:
Analiza i wnioskowanie statysty Nieznany (2)
14 Wnioskowanie statystyczne w sieci Bayesa
cwiczenie 14 id 125164 Nieznany
14 5id 15201 Nieznany (2)
Cwiczenia nr 10 (z 14) id 98678 Nieznany
5 14 id 39504 Nieznany (2)
3 14 ukladanie i rozwiazywanie Nieznany
B 14 id 74811 Nieznany (2)
A, TEST 14 id 49148 Nieznany (2)
14 edytowid 15400 Nieznany
zestaw 14 silniki i chlodziarki Nieznany
IMG 14 id 210953 Nieznany
14 12id 15183 Nieznany (2)
Cwiczenia nr 13 (z 14) id 98681 Nieznany
IMG 14 id 211039 Nieznany
WNIOSKOWANIE STATYSTYCZNE 12.10.2013, IV rok, Ćwiczenia, Wnioskowanie statystyczne
14 2id 15190 Nieznany (2)
LISTA ZADA â 2 WNIOSKOWANIE STATYSTYCZNE

więcej podobnych podstron