B Kamys Statystyczne metody opracowania i pomiarów

background image

STATYSTYCZNE METODY OPRACOWANIA

POMIARÓW I

B. Kamys 2007/08

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

1 / 78

background image

Podstawy teorii prawdopodobieństwa

DEFINICJA:

Zbiór zdarzeń elementarnych

- zbiór takich zdarzeń, które

sie¸ wzajemnie wykluczaja¸ oraz wyczerpuja¸ wszystkie
możliwości (tzn. w każdym możliwym przypadku
przynajmniej jedno z nich musi zachodzić).

DEFINICJA:

Zdarzeniem

jest dowolny podzbiór zdarzeń elementarnych E.

DEFINICJA:

Zdarzeniem pewnym

jest zdarzenie zawieraja¸ce wszystkie

elementy zbioru E (zachodzi zawsze).

DEFINICJA:

Zdarzeniem niemożliwym

jest zdarzenie nie zawieraja¸ce

żadnego elementu zbioru E tj. zbiór pusty ∅.

DEFINICJA:

Zdarzenie A zawiera sie

¸ w zdarzeniu B

jeżeli każde

zdarzenie elementarne należa¸ce do zbioru A należy do B:
A

⊂ B

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

2 / 78

background image

Podstawy teorii prawdopodobieństwa

DEFINICJA:

Zdarzenia A i B sa

¸ równe

gdy A ⊂ B i B ⊂ A.

DEFINICJA:

Suma zdarzeń A + B

to zdarzenie zawieraja¸ce te i tylko te zdarzenia elementarne,
które należa¸ do któregokolwiek ze zdarzeń A, B (suma
logiczna zbiorów zdarzeń elementarnych A

S B).

DEFINICJA:

Różnica zdarzeń A

− B

to zdarzenie zawieraja¸ce te i tylko te zdarzenia elementarne,
które należa¸ do zdarzenia A a nie należa¸ do zdarzenia B.

DEFINICJA:

Iloczyn zdarzeń A

· B

to zdarzenie zawieraja¸ce te i tylko te

zdarzenia elementarne, które należa¸ do wszystkich zdarzeń A,
B

(tzn. w je¸zyku zbiorów A

T B).

DEFINICJA:

Zdarzeniem przeciwnym do A:

A

nazywamy różnice¸

E − A .

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

3 / 78

background image

Podstawy teorii prawdopodobieństwa

INTUICYJNE OKREŚLENIE:

Zdarzenie losowe

to takie, o którym zwykle

nie możemy powiedzieć czy zajdzie w danych warunkach czy
też nie zajdzie.

DEFINICJA:

Zdarzeniem losowym

- nazywamy zdarzenie spełniaja¸ce

poniższe warunki:

1

W zbiorze zdarzeń losowych znajduje sie¸ zdarzenie
pewne

oraz zdarzenie niemożliwe.

2

Jeżeli zdarzenia A

1

, A

2

, ... w ilości skończonej lub

przeliczalnej sa¸ zdarzeniami losowymi to ich iloczyn i ich
suma

sa¸ również zdarzeniami losowymi.

3

Jeżeli A

1

i A

2

sa¸ zdarzeniami losowymi to ich różnica

jest również zdarzeniem losowym.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

4 / 78

background image

Podstawy teorii prawdopodobieństwa

DEFINICJA:

Zmienna

¸ losowa

¸

nazywamy jednoznaczna¸ funkcje¸

rzeczywista¸ X (e) określona¸ na zbiorze E zdarzeń
elementarnych taka¸, że każdemu przedziałowi wartości funkcji
X

odpowiada zdarzenie losowe.

DEFINICJA:

Zmienna losowa

typu skokowego (dyskretnego)

to taka,

która przyjmuje tylko co najwyżej przeliczalny zbiór wartości.

DEFINICJA:

Zmienna losowa

typu cia

¸głego

- może przyjmować dowolne

wartości od minus do plus nieskończoności.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

5 / 78

background image

Podstawy teorii prawdopodobieństwa

DEFINICJA:

Definicja prawdopodobieństwa

Aksjomat 1:

Każdemu zdarzeniu losowemu przyporza¸dkowana jest
jednoznacznie nieujemna liczba rzeczywista zwana
prawdopodobieństwem.

Aksjomat 2:

Prawdopodobieństwo zdarzenia pewnego jest równe jedności.

Aksjomat 3:

Jeżeli zdarzenie losowe Z jest suma¸ skończonej lub
przeliczalnej liczby rozła

¸cznych

zdarzeń losowych Z

1

,Z

2

,..

to prawdopodobieństwo zrealizowania sie¸ zdarzenia Z jest
równe sumie prawdopodobieństw zdarzeń Z

1

,Z

2

, ..

Aksjomat 4:

Prawdopodobieństwo warunkowe

zdarzenia A pod

warunkiem, że zachodzi zdarzenie B; P(A | B) wyraża sie¸
wzorem:

P(A | B) =

P(A·B)

P(B)

Prawdopodobieństwo to jest nieokreślone, gdy
prawdopodobieństwo zdarzenia B wynosi zero.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

6 / 78

background image

Podstawy teorii prawdopodobieństwa

Własności prawdopodobieństwa

Zdarzenie przeciwne do A

:

P(A) = 1 − P(A)

Dowód:
A + A = E a wie¸c P(A + A) = P(E) = 1,
z drugiej strony A i A wykluczaja

¸ sie¸ wie¸c

P(A + A) = P(A) + P(A).
Sta

¸d P(A) = P(E) − P(A) czyli P(A) = 1 − P(A) c.b.d.o.

Zdarzenie niemożliwe

:

P(∅) = 0

Dowód:
E i ∅ wykluczaja¸ sie¸ wie¸c P(E + ∅) = P(E) + P(∅) oraz
E + ∅ = E a wie¸c P(E + ∅) = P(E), czyli P(∅) = 0
c.b.d.o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

7 / 78

background image

Podstawy teorii prawdopodobieństwa

Własności prawdopodobieństwa

Zdarzenie A zawiera sie¸ w B

:

P(A) ≤ P(B)

Dowód: P(B) = P(A + (A · B)) = P(A) + P(A · B) ≥ P(A)
c.b.d.o.

Dowolne zdarzenie losowe

:

0

≤ P(A) ≤ 1

Dowód: Dla każdego zdarzenia jest prawdziwe:
∅ ⊂ A + ∅ = A = A · E ⊂ E
a wie¸c prawdopodobieństwa zdarzeń ∅, A i E spełniaja

¸:

0 ≤ P(A) ≤ 1
c.b.d.o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

8 / 78

background image

Podstawy teorii prawdopodobieństwa

Własności prawdopodobieństwa

Suma dowolnych zdarzeń A + B

:

P(A + B) = P(A) + P(B) − P(A · B)

Dowód:
Zarówno A + B jak i B możemy zapisać jako sumy rozła

¸cznych

(wykluczaja

¸cych sie¸) zdarzeń:

A + B

=

A + (B − A · B)

oraz

B

=

A · B + (B − A · B),

stosujemy aksjomat nr 3 definicji prawdopodobieństwa,

P(A + B)

=

P(A) + P(B − A · B),

P(B)

=

P(A · B) + P(B − A · B)

odejmujemy stronami: P(A + B) = P(A) + P(B) − P(A · B)
c.b.d.o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

9 / 78

background image

Podstawy teorii prawdopodobieństwa

Własności prawdopodobieństwa

Iloczyn zdarzeń A · B

:

P(A · B) = P(B) · P(A | B) = P(A) · P(B | A)

Dowód:
Wynika to automatycznie z 4 aksjomatu definicji
prawdopodobieństwa.

DEFINICJA:

Zdarzenie

A jest niezależne od B

gdy P(A | B) = P(A).

TWIERDZENIE:

Jeżeli A nie zależy od B to B nie zależy od A.

Dowód:
Korzystamy z dwu wzorów na prawdopodobieństwo A · B
podanych wyżej, przy czym w pierwszym z nich uwzgle¸dniamy, że
A jest niezależne od B. Wówczas z porównania obu wzorów
dostajemy P(B | A) = P(B).
c.b.d.o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

10 / 78

background image

Podstawy teorii prawdopodobieństwa

Własności prawdopodobieństwa

WKW niezależności:

P(A · B) = P(A) · P(B)

Dowód:
Wynika to automatycznie ze wzoru na prawdopodobieństwo
iloczynu zdarzeń.
c.b.d.o

Formuła całkowitego prawdopodobieństwa:

Jeżeli istnieje zbiór zdarzeń A

1

,

A

2

, ... wykluczaja

¸cych sie¸ wzajemnie i wyczerpuja¸cych

wszystkie możliwości wówczas prawdopodobieństwo
dowolnego zdarzenia B może być zapisane naste¸puja¸co:

P(B) =

P

i

P(A

i

) · P(B | A

i

)

Dowód:
B =

P

i

B · A

i

(suma rozła

¸cznych zdarzeń) a wie¸c

P(B) =

P

i

P(B · A

i

) a każdy składnik można zapisać jako

P(A

i

) · P(B | A

i

). c.b.d.o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

11 / 78

background image

Ilościowy opis zmiennych losowych

Ilościowy opis zmiennych losowych uzyskujemy stosuja¸c

Dystrybuante

¸

(Zwana¸ cze¸sto przez statystyków funkcja

¸ rozkładu

)

Rozkład prawdopodobieństwa

(Tylko dla zmiennych dyskretnych)

Funkcje

¸ ge

¸stości prawdopodobieństwa

(Tylko dla zmiennych

cia¸głych) oraz wielkości charakteryzuja¸ce te powyżej wymienione twory.

DEFINICJA:

Dystrybuanta

¸ F(x)

nazywamy prawdopodobieństwo tego, że

zmienna losowa X przyjmie wartość mniejsza¸ od x .
(X - to symbol zmiennej losowej a x to jej konkretna
wartość). Oczywiście dystrybuanta jest funkcja¸ x .

F (x ) ≡ P(X < x )

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

12 / 78

background image

Ilościowy opis zmiennych losowych

Własności dystrybuanty:

1

0

≤ F (x) ≤ 1

2

F (−∞) = 0

3

F (+∞) = 1

4

F (x ) jest niemaleja¸ca¸ funkcja¸

5

F (x ) nie posiada wymiaru

Przykład:

Dla rzutu kostka¸ do gry, gdzie jako zmienna¸ losowa¸ przyje¸to
liczbe¸ wyrzuconych punktów:

F (x ) = 0 dla x ≤ 1,

=

1/6 dla 1 < x ≤ 2,

=

2/6 dla 2 < x ≤ 3,

=

3/6 dla 3 < x ≤ 4,

=

4/6 dla 4 < x ≤ 5,

=

5/6 dla 5 < x ≤ 6,

=

1 dla x > 6

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

13 / 78

background image

Ilościowy opis zmiennych losowych

DEFINICJA:

Rozkład prawdopodobieństwa

: Jeżeli x

i

(i = 1, 2, ...) sa

¸

wartościami dyskretnej zmiennej losowej to rozkładem
prawdopodobieństwa nazywamy zespół prawdopodobieństw:

P(X = x

i

) = p

i

P

i

p

i

= 1

Przykład:

Rozkład prawdopodobieństwa dla rzutu kostka¸ do gry
omawianego powyżej: p

i

= 1/6 dla i = 1, 2..6.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

14 / 78

background image

Ilościowy opis zmiennych losowych

DEFINICJA:

Funkcja ge

¸stości prawdopodobieństwa f(x):

f (x )dx ≡ P(x ≤ X ≤ x + dx )

Własności funkcji ge¸stości prawdopodobieństwa:

1

f (x ) ≥ 0,

2

f (x ) jest unormowana
tj.

R

+∞

−∞

f (x )dx = 1

3

f (x ) =

dF (x )

dx

4

wymiar f (x ) = wymiar (1/x )

Przykład:

Rozkład jednostajny na odcinku [a, b]:

f (x ) =

0

dla

x < a

1/(b − a)

dla

a

≤ x ≤ b

0

dla

x > b

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

15 / 78

background image

Funkcje zmiennej losowej

Funkcja Y zmiennej losowej X:

Y = Y (X )

jest również zmienna¸ losowa¸. Dlatego też można dla niej
określić dystrybuante¸, rozkład prawdopodobieństwa lub
funkcje¸ ge¸stości prawdopodobieństwa. Sa¸ one prosto
zwia¸zane z odpowiednimi wielkościami dla zmiennej X .

Należy rozpatrzyć niezależnie przypadek, gdy funkcja Y (X )
jest monotoniczna oraz gdy nie posiada tej własnosci

. W

pierwszym wypadku można jednoznacznie określić funkcje¸
odwrotna¸ X = X (Y ) a w drugim cały przedział wartości X
trzeba podzielić na rozła¸czne podprzedziały, w których
funkcja be¸dzie monotoniczna a wyniki dodać
(prawdopodobieństwa rozła¸cznych zdarzeń sumuja¸ sie¸).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

16 / 78

background image

Funkcje zmiennej losowej

Dla monotonicznej funkcji Y = Y(X):

Dystrybuanta G(y) rosna¸cej funkcji Y(X)

wynosi:

G (y ) = F (x (y ))

Dowód:

Wychodza¸c z definicji dla Y(X) rosna¸cej:

G (y ) = P(Y < y )

=

P (X (Y ) < x )

=

F (x (y ))

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

17 / 78

background image

Funkcje zmiennej losowej

Dla monotonicznej funkcji Y = Y(X):

Dystrybuanta G(y) maleja¸cej funkcji Y(X)

wynosi:

G (y ) = 1 − F (x (y )) − P (x ; y = y (x ))

Dowód:

Wychodza¸c z definicji dystrybuanty

G (y ) = P(Y < y )

=

P (X (Y ) > x )

=

1

− P (X (Y ) ≤ x)

=

1

− P (X (Y ) < x) − P (X (Y ) = x)

=

1

− F (x(y )) − P (x; Y = y (x))

c.b.d .o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

18 / 78

background image

Funkcje zmiennej losowej

Rozkład prawdopodobieństwa P(y):

P(y

i

) = P(x

i

; y

i

= Y (x

i

))

bo dla

funkcji monotonicznej wartości x

i

sa¸ jednoznacznie zwia¸zane

z wartosciami y

i

.

Funkcja ge¸stości prawdopodobieństwa g(y):

g (y ) = f (x (y )) |

dx (y )

dy

|

gdzie X (Y ) jest funkcja¸ odwrotna¸ do Y (X ). Z definicji:
f (x )dx = P(x ≤ X < x + dx ) a to prawdopodobieństwo
przy jednoznacznym zwia¸zku mie¸dzy X i Y wynosi
P(y ≤ Y < y + dy ) = g (y )dy .
Iloraz nieskończenie małych przyrostów dy /dx równy jest
pochodnej z dokładnościa¸ do znaku. A wie¸c moduł przy
pochodnej pojawia sie¸ sta¸d, że przy maleja¸cej funkcji Y (X )
pochodna be¸dzie ujemna a iloraz nieskończenie małych
przyrostów jest zawsze dodatni.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

19 / 78

background image

Funkcje zmiennej losowej

Przykład dla funkcji monotonicznej:

Y (X ) = aX + b ; a i b to

rzeczywiste stałe.

Rozkład prawdopodobieństwa:

P(Y = y

i

) = P(ax

i

+ b = y

i

) = P(x

i

=

y

i

−b

a

).

Dystrybuanta:

dla a > 0

G (y ) = F



x =

y −b

a



dla a < 0

G (y ) = 1 − F



x =

y −b

a



− P



x =

y −b

a



Ge¸stość prawdopodobieństwa:

g (y ) =

1

|a|

f (x =

y −b

a

) .

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

20 / 78

background image

Funkcje zmiennej losowej

Przykład dla funkcji niemonotonicznej:

Y (X ) = X

2

1.) Rozkład prawdopodobieństwa

wynosi:

P(y

i

) = P(X

2

= y

i

) = P(X = −

y

i

) + P(X = +

y

i

)

2.) Dystrybuanta

wynosi:

G (y ) = P(Y < y ) = P(X

2

< y )

=

P(−

y < X < +

y )

G (y ) = 0 dla y ≤ 0

G (y ) = F (

y ) − F (−

y ) dla y ≥ 0

3.) Rozkład ge¸stości prawdopodobieństwa

wynosi:

g (y ) = 0 dla y < 0

g (y ) = |

−1

2

y

| f (

y ) +

1

2

y

f (−

y )

=

1

2

y

(f (

y ) + f (−

y )) dla y ≥ 0

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

21 / 78

background image

Charakterystyki opisowe

W praktycznych zastosowaniach cze¸sto wystarcza poznanie wartości
pewnych wielkości, które charakteryzuja¸ rozkład prawdopodobieństwa
zamiast pełnej informacji o rozkładzie.

Oto najcze¸ściej stosowane:

DEFINICJA:

fraktyl x

q

(zwany również

kwantylem

) jest to taka wartość

zmiennej losowej, że prawdopodobieństwo znalezienia
mniejszych od niej wartości wynosi q:

P(X < x

q

) ≡ F (x

q

) = q

Najważniejsze fraktyle to

dolny kwartyl: x

0.25

,

górny kwartyl: x

0.75

oraz

mediana: x

0.5

.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

22 / 78

background image

Charakterystyki opisowe

DEFINICJA:

Moda

(zwana również

wartościa

¸ modalna

¸

) jest to taka

wartość zmiennej losowej, dla której rozkład
prawdopodobieństwa (lub funkcja ge¸stości
prawdopodobieństwa) przyjmuje maksimum.

DEFINICJA:

Rozkłady prawdopodobieństwa posiadaja¸ce jedna¸ mode¸
zwane sa¸

jednomodalnymi

a te, które maja¸ wie¸cej niż jedna¸

-

wielomodalnymi

.

DEFINICJA:

Wartość oczekiwana

,

wartość średnia

lub

nadzieja

matematyczna

. Be¸dziemy go oznaczali przez E(X)

(stosuje sie¸ również oznaczenie M(X) lub ^

X

).

E(X ) ≡

P

i

x

i

· p

i

dla zmiennych dyskretnych,

E(X ) ≡

R x · f (x) dx

dla zmiennych cia¸głych

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

23 / 78

background image

Charakterystyki opisowe

INTERPRETACJA E(X):

E (X ) jest współrze¸dna¸ punktu, który
byłby środkiem masy rozkładu praw-
dopodobieństwa (lub pola pod funkcja¸
ge¸stości prawdopodobieństwa) gdyby
prawdopodobieństwa poszczególnych
wartości x

i

traktować jako masy

(lub

odpowiednio

ge¸stość

praw-

dodobieństwa jako zwykła¸ ge¸stość).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

24 / 78

background image

Charakterystyki opisowe

WŁASNOŚCI E(X)

: E (X ) jest operatorem liniowym a wie¸c:

1

E (

P

i

C

i

· X

i

) =

P

i

C

i

· E (X

i

)

co w szczególnych przypadkach daje:

E (C ) = C

E (C · X ) = C · E (X )

E (X

1

+ X

2

) = E (X

1

) + E (X

2

)

2

Dla zmiennych niezależnych X

1

, ..., X

n

E



Q

i

X

i



=

Q

i

E

{X

i

}

UWAGA:

Warunkiem koniecznym i wystarczaja¸cym by

zmienne

były

niezależne

jest aby wspólny rozkład prawdopodobieństwa

faktoryzował sie¸:
f (X

1

, X

2

, .., X

n

) = f

1

(X

1

) · f

2

(X

2

)...f

n

(X

n

).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

25 / 78

background image

Charakterystyki opisowe

Dla funkcji zmiennej X; Y = Y (X )

wartość oczekiwana E (Y ) może być

znaleziona przy pomocy rozkładu zmiennej X bez
konieczności szukania rozkładu g (y ):

E (Y ) =

P

i

y (x

i

) · p

i

,

E (Y ) =

R y (x) · f (x) · dx

odpowiednio dla zmiennej dyskretnej i dla zmiennej cia¸głej.

DEFINICJA:

Momentem rozkładu rze

¸du k wzgle

¸dem punktu x

0

,

nazywamy naste¸puja¸ca¸ wielkość:

m

k

(x

0

) ≡ E {(x − x

0

)

k

}

czyli

m

k

(x

0

) ≡

R (x − x

0

)

k

· f (x) · dx

m

k

(x

0

) ≡

P

i

(x

i

− x

0

)

k

p(x

i

)

odpowiednio dla zmiennych cia¸głych i dyskretnych.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

26 / 78

background image

Charakterystyki opisowe

Najważniejszymi momentami sa¸ te, które

liczone sa¸ wzgle¸dem pocza¸tku układu współrze¸dnych tj. x

0

= 0

(oznacza sie¸ je zwykle przez

m

k

)

oraz

momenty liczone wzgle¸dem x

0

= m

1

tj. wzgle¸dem pierwszego momentu

liczonego od pocza¸tku układu współrze¸dnych. Te ostatnie momenty
nazywa sie¸

momentami centralnymi

(zwykle oznaczane sa¸ przez

µ

k

).

UWAGA:

m

1

≡ E (x);

µ

1

≡ 0

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

27 / 78

background image

Charakterystyki opisowe

DEFINICJA:

µ

2

, zwany

wariancja

¸

lub

dyspersja

¸

. Be¸dziemy go oznaczać

przez σ

2

(X ) lub var (X ) (stosuje sie¸ również oznaczenie

D(X )).

DEFINICJA:

Pierwiastek z wariancji nazywany jest

odchyleniem

standardowym

i oznaczany σ(X ) ale czasami używa sie¸

również nazwy

dyspersja

.

σ

2

(X ) ≡

P

i

(x

i

− E (x))

2

· p

i

zmienna dyskretna

σ

2

(X ) ≡

R (x − E (x))

2

· f (x) · dx

zmienna cia¸gła

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

28 / 78

background image

Charakterystyki opisowe

WŁASNOŚCI WARIANCJI:

Wariancja może być wyrażona przez momenty

liczone wzgle¸dem pocza¸tku układu współrze¸dnych:

σ

2

(X ) = m

2

− m

2

1

σ

2

(X ) = E (X

2

) − E

2

(X )

DOWÓD:

Korzystamy z trzeciej własności wartości oczekiwanej tj.

m

2

(E (X ))

E ((X − E (X ))

2

)

=

E (X

2

− 2X · E (X ) + E

2

(X ))

=

E (X

2

) − 2E (X ) · E (X ) + E

2

(X )

=

E (X

2

) − E

2

(X )

c.b.d.o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

29 / 78

background image

Charakterystyki opisowe

var (C ) = 0

bo E (C

2

) − E

2

(C ) = C

2

− C

2

= 0 c.b.d.o.

var (C · X ) = C

2

· var (X )

jest to naste¸pstwo liniowości E(X), przez która

¸ definiowaliśmy var(X).

var (C

1

· X + C

2

) = C

2

1

· var (X )

Przesunięcie skali o C

2

nie zmienia wariancji a pomnożenie zmiennej

przez C

1

wprowadza czynnik C

2

1

j.w.

Dla zmiennych niezależnych

var (

P

i

C

i

· X

i

) =

P

i

C

2

i

· var (X )

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

30 / 78

background image

Charakterystyki opisowe

DOWÓD:

Wzór ten łatwo wyprowadzić przypominaja¸c definicje¸
wariancji i korzystaja¸c z trzeciej własności wartości

oczekiwanej: var (y =

P

i

C

i

· X

i

) ≡ E



(y − E (Y ))

2



.

Po wstawieniu do wzoru oraz podniesieniu do kwadratu
otrzymamy

sume¸ kwadratów

wyrażeń C

i

· (X

i

− E (X

i

))

oraz

iloczyny mieszane

tych wyrażeń.

Iloczyny mieszane znikna¸ w chwili gdy podziała na nie

zewne¸trzny operator wartości oczekiwanej (bo
E (X − E (X )) = E (X ) − E (X ) = 0).

Założenie niezależności jest potrzebne przy liczeniu wartości

oczekiwanej z iloczynów mieszanych (wówczas wartość
oczekiwana iloczynu równa jest iloczynowi wartości
oczekiwanych). Suma wartości oczekiwanych z kwadratów
wyrażeń C

i

· (X

i

− E (X

i

)) jest właśnie poszukiwanym przez

nas wyrażeniem.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

31 / 78

background image

Charakterystyki opisowe

Interpretacja wariancji wynika z

nierówności Czebyszewa

, która¸ można

zapisać naste¸puja¸co:

P (| X − E (X ) |≥ a · σ(X )) ≤ a

−2

TWIERDZENIE:
Prawdopodobieństwo odchylenia wartości zmiennej losowej od wartości
oczekiwanej E(X) o a -krotna¸ wartość odchylenia standardowego jest
mniejsze lub równe od

1

a

2

.

Twierdzenie to jest słuszne dla wszystkich rozkładów, które posiadaja¸
wariancje¸ (a wie¸c, co za tym idzie i wartość oczekiwana¸). Liczba a jest
dowolna¸ dodatnia¸ liczba¸.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

32 / 78

background image

Charakterystyki opisowe

INTERPRETACJA WARIANCJI:

Korzystaja¸c z nierówności Czebyszewa

dochodzimy do wniosku, że

wariancja (lub odchylenie standardowe) jest miara¸ rozrzutu

zmiennej losowej dokoła wartości oczekiwanej .

Jest to bardzo ważny wniosek bo w analizie danych
doświadczalnych

utożsamiamy wartość oczekiwana¸ pomiarów

wykonanych w obecności przypadkowych niepewności
pomiarowych

z wartościa¸ prawdziwa¸

mierzonej wielkości.

Wtedy

miara¸ przypadkowej niepewności pomiarowej jest

odchylenie standardowe

bo ono określa rozrzut wyników

dokoła wartości prawdziwej.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

33 / 78

background image

Podstawowe poje

¸cia teorii estymacji

DEFINICJA:

W statystyce skończony zespół doświadczeń nazywamy

próba

¸

a wnioskowanie na podstawie próby o własnościach
nieskończonego (zwykle) zespołu wszystkich możliwych
doświadczeń zwanego

populacja

¸ generalna

¸

, nazywamy

estymacja

¸

.

DEFINICJA:

Przez

próbe

¸ prosta

¸

rozumiemy cia¸g niezależnych

doświadczeń odnosza¸cych sie¸ do tej samej populacji
generalnej.

DEFINICJA:

Statystyka

¸

nazywamy taka¸ funkcje¸ zmiennych losowych

obserwowanych w próbie, która sama jest zmienna¸ losowa¸.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

34 / 78

background image

Podstawowe poje

¸cia teorii estymacji

DEFINICJA:

Estymatorem T

n

(x

1

, x

2

, ..x

n

; θ)

parametru θ lub w skrócie

T

n

(θ)

nazywamy statystyke¸ o rozkładzie

prawdopodobieństwa zależnym od θ. Tu ’x

1

, x

2

, ..’ oznaczaja

¸

wyniki pomiarów próby.

DEFINICJA:

Estymacja punktowa

to taka estymacja, która polega na

oszacowaniu wartości danego parametru θ przez wartość jego
estymatora T

n

(θ).

DEFINICJA:

Estymacja przedziałowa

polega na szukaniu przedziału

liczbowego, wewna¸trz którego z założonym
prawdopodobieństwem leży prawdziwa wartość parametru.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

35 / 78

background image

Podstawowe poje

¸cia teorii estymacji

DEFINICJA:

Estymator T

n

(θ), jest

zgodny

jeżeli dla każdego  > 0 jest

spełniony warunek:

lim

n→∞

P(| T

n

(θ) − θ |< ) = 1

W takim przypadku używa sie¸ cze¸sto określenia, że

estymator spełnia prawo wielkich liczb

.

PRZYKŁAD:

TWIERDZENIE (Bernoulli):

Wzgle¸dna cze¸stość

pojawiania sie¸ zdarzenia A w cia¸gu n doświadczeń spełnia
prawo wielkich liczb czyli jest zgodnym estymatorem
prawdopodobieństwa zdarzenia A: P(A).

lim

n→∞

P(| n

A

/n − P(A) |< ) = 1

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

36 / 78

background image

Podstawowe poje

¸cia teorii estymacji

DEFINICJA:

Estymator

spełniaja

¸cy mocne prawo wielkich liczb

to

taki, który jest zbieżny do estymowanego parametru z
prawdopodobieństwem równym jedności:

P(lim

n→∞

T

n

(θ) = θ) = 1

PRZYKŁAD:

TWIERDZENIE: F.P.Cantelli

udowodnił w 1917 roku, że

wzgle¸dna cze¸stość pozytywnego zakończenia doświadczenia;
n

A

/n jest zbieżna do prawdopodobieństwa zdarzenia A;

P(A) z prawdopodobieństwem równym jedności:

P(lim

n→∞

(n

A

/n) = P(A)) = 1

czyli wzgle¸dna cze¸stość spełnia mocne prawo wielkich liczb.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

37 / 78

background image

Podstawowe poje

¸cia teorii estymacji

DEFINICJA:

Estymatorem nieobcia

¸żonym

T

n

(θ) parametru θ

nazywamy taki estymator, którego wartość oczekiwana równa
jest wartości estymowanego parametru niezależnie od
rozmiarów próby:

E (T

n

(θ)) = θ

DEFINICJA:

Obcia

¸żeniem estymatora ’B

n

nazywamy różnice¸ jego

wartości oczekiwanej i wartości estymowanego parametru:

B

n

= E (T

n

(θ)) − θ

DEFINICJA:

Estymatorem obcia

¸żonym

nazywamy taki estymator,

którego obcia¸żenie jest różne od zera.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

38 / 78

background image

Podstawowe poje

¸cia teorii estymacji

DEFINICJA:

Estymatorem asymptotycznie nieobcia

¸żonym

nazywamy

taki estymator obcia¸żony, którego obcia¸żenie zmierza do zera
gdy rozmiary próby nieskończenie rosna¸:

lim

n→∞

B

n

= 0

TWIERDZENIE:

Jeżeli wariancja estymatora nieobcia¸żonego lub

asymptotycznie nieobcia¸żonego da¸ży do zera gdy rozmiary
próby rosna¸ nieograniczenie wówczas estymator ten jest
zgodny.

TWIERDZENIE:

Jeżeli T

n

(θ) jest zgodnym estymatorem θ i jeżeli h(θ)

jest wielomianem lub ilorazem wielomianów to estymator
h(T

n

(θ)) jest estymatorem zgodnym dla h(θ).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

39 / 78

background image

Rozkład normalny (Gaussa)

DEFINICJA:

Cia¸gła zmienna losowa X, której funkcja ge¸stości
prawdopodobieństwa ma naste¸puja¸ca¸ postać:

f (X ) =

1

2π B

exp



−(X −A)

2

2B

2



nazywa sie¸

zmienna

¸ o rozkładzie normalnym

N(A, B).

Wartość oczekiwana:

E (X ) = A

Odchylenie standardowe:

σ(X ) = B

Sta¸d łatwo widać, że N(A, B) ≡ N (E (X ), σ(X ))

Dystrybuanta:

rozkładu normalnego nie wyraża sie¸ przez funkcje

elementarne.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

40 / 78

background image

Rozkład normalny (Gaussa)

Warto zapamie¸tać naste¸puja¸ce wartości prawdopodobieństwa znalezienia
zmiennej X w danym przedziale:

P(E (X ) − σ(X ) < X < E (X ) + σ(X )) = 0.6827

P(E (X ) − 2σ(X ) < X < E (X ) + 2σ(X )) = 0.9545

P(E (X ) − 3σ(X ) < X < E (X ) + 3σ(X )) = 0.9973

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

41 / 78

background image

Rozkład normalny (Gaussa)

UWAGA:

Dowolna¸ zmienna¸ Y o rozkładzie normalnym można

standaryzować

tworza¸c wielkość Z o rozkładzie

standardowym normalnym N(0, 1)

:

Z = (Y − E (Y ))/σ(Y ).

Standaryzacja jest ważna ze wzgle¸du na możliwość
tablicowania zarówno funkcji ge¸stości prawdopodobieństwa,
jak i dystrybuanty rozkładu N(0, 1) a potem wykorzystania
faktu, że maja¸c zmienna¸ X o rozkładzie N(0, 1) możemy
stworzyć zmienna¸ Y o rozkładzie N(A, B) przez prosta¸
transformacje¸: Y = B ∗ X + A .

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

42 / 78

background image

Rozkład normalny (Gaussa)

Centralne Twierdzenie Graniczne

(intuicyjne sformułowanie)

Zmienna Z be¸da¸ca standaryzowana¸ suma¸ nieza-
leżnych zmiennych losowych bedzie miała standar-
dowy rozkład normalny gdy liczba składników w
sumie da¸ży do nieskończoności oraz w sumie nie
wyste¸puja¸ zmienne o wariancjach dominuja¸cych w
stosunku do reszty składników.

Właśnie to twierdzenie powoduje, że rozkład normalny jest
wyróżnionym rozkładem - bardzo cze¸sto stosowanym w
statystyce.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

43 / 78

background image

Podstawy rachunku błe

¸dów

Motto:

Wynik pomiaru bez podania dokładności doświad-
czenia

(podania

niepewności

pomiaru)

jest

bezwartościowy.

DEFINICJA:

Pomiarem bezpośrednim

nazywamy doświadczenie, w

którym przy pomocy odpowiednich przyrza¸dow mierzymy
(porównujemy z jednostka¸) interesuja¸ca¸ nas wielkość fizyczna¸.

Przykład:

Pomiar długości przedmiotu przy pomocy linijki

Pomiar długości odcinka czasu przy pomocy zegara

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

44 / 78

background image

Podstawy rachunku błe

¸dów

DEFINICJA:

Pomiarem pośrednim

nazywamy doświadczenie, w którym

wyznaczamy wartość interesuja¸cej nas wielkości fizycznej
przez pomiar innych wielkości fizycznych zwia¸zanych z dana¸
wielkościa¸ znanym zwia¸zkiem funkcyjnym.

Przykład:

Pomiar oporu elektrycznego przewodnika: mierzymy
spadek napie¸cia U na przewodniku i pra¸d I przez niego
płyna¸cy a opór R wyznaczamy z prawa Ohma:
R = U/I .

Pomiar ge¸stości stopu, z którego zbudowany jest
prostopadłościan: mierzymy bezpośrednio długość
krawe¸dzi a, b i c prostopadłościanu i jego mase¸ m a
ge¸stość wyznaczamy ze wzoru: ρ = m/(a · b · c).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

45 / 78

background image

Podstawy rachunku błe

¸dów

DEFINICJA:

Błe

¸dem pomiaru e

nazywano (tradycyjnie) różnice¸

pomie¸dzy wartościa¸ x uzyskana¸ w doświadczeniu a prawdziwa¸
(nieznana¸) wartościa¸ x

0

danej wielkości:

e = x − x

0

UWAGA:

Zgodnie z Międzynarodową Normą ISO określenie

błąd

zastępuje się określeniem

niepewność pomiarowa

.

Niepewność pomiaru wielkości x oznacza się u(x ) .

Podział niepewności pomiarowych:

Niepewności pomiarowe dzielimy na

grube

systematyczne

przypadkowe

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

46 / 78

background image

Podstawy rachunku błe

¸dów

DEFINICJA:

Niepewności grube

to takie, które pojawiaja¸ sie¸ w wyniku

pomyłki eksperymentatora (np. odczyt na niewłaściwej skali
przyrza¸du) lub w wyniku niesprawności aparatury pomiarowej.
Zwykle sa¸ one na tyle duże, że można je łatwo zauważyć.

Dla uniknie¸cia takich niepewności pomiarowych należy
starannie zorganizować proces pomiaru i używać do
doświadczeń tylko właściwie wytestowanych przyrza¸dów.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

47 / 78

background image

Podstawy rachunku błe

¸dów

DEFINICJA:

Niepewności systematyczne

to takie, które podczas

wykonywania pomiaru systematycznie przesuwaja¸ wyniki
pomiarów w jedna¸ strone¸ w stosunku do prawdziwej wartości.

Moga¸ mieć one różne przyczyny. Najcze¸ściej to:

Niewłaściwy sposób przeprowadzania pomiaru
(np.

Bła¸d paralaksy

)

Stosowanie złych przyrza¸dów
(np. waga szalkowa o różnej długości ramion)

Stosowanie nieprzemyślanej metody (patrz poniżej)

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

48 / 78

background image

Podstawy rachunku błe

¸dów

Przykład:

Przy pomiarze oporu możemy zastosować dwa różne
schematy podła¸czenia woltomierza i amperomierza:

V

A

Rysunek:

Schemat pierwszy: Woltomierz podła

¸czony równolegle

do opornika a szeregowo do nich amperomierz.

Systematycznie

zawyżamy wartość pra

¸du I a wie¸c zaniżamy opór.

V

A

Rysunek:

Schemat drugi: Woltomierz podła

¸czony równolegle do

układu szeregowo poła

¸czonych opornika i amperomierza.

Systematycznie zawyżamy wartość napie¸cia U a wie¸c zawyżamy
opór.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

49 / 78

background image

Podstawy rachunku błe

¸dów

Niepewności systematyczne sa¸ trudne do zauważenia i oszacowania.

Dla ich uniknie¸cia stosuje sie¸:

staranne przemyślenie metody pomiaru w poszukiwaniu możliwych

źródeł niepewności systematycznych i wybór metody, która nie jest
nimi obarczona, np. opór w powyższym przykładzie można mierzyć
metoda¸ mostka.

zmiane¸ metody pomiaru , aby wyeliminować ukryte, niekontrolowane

źródła niepewności systematycznych. Na przykład, ważne stałe
fizyczne takie jak pre¸dkość światła c były wielokrotnie mierzone
różnymi metodami, głównie po to aby upewnić sie¸, że uniknie¸to
niepewności systematycznych,

pomiary wzgle¸dne polegaja¸ce na tym, że mierzymy równocześnie, ta¸

sama¸ metoda¸ dwie wielkości - jedna¸ dobrze znana¸ a druga¸ - te¸, która¸
chcemy zmierzyć.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

50 / 78

background image

Podstawy rachunku błe

¸dów

DEFINICJA:

Niepewności przypadkowe

to takie, które zmieniaja¸ sie¸ od

pomiaru do pomiaru, powoduja¸c odchylenia od wartości
prawdziwej zarówno w dół jak i w górę.
Zakłada sie¸, że spowodowane sa¸ one przez wiele
niezależnych przyczyn o porównywalnym znaczeniu

.

Metody statystyki pozwalaja¸ na oszacowanie tego typu
efektów zarowno jakościowo jak i ilościowo. Nie mówia¸
jednak nic o niepewnościach systematycznych czy grubych.

Dlatego dalsze rozważania be

¸da

¸ dotyczyły

tylko niepewności przypadkowych

.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

51 / 78

background image

Podstawy rachunku błe

¸dów

Rozkład niepewności przypadkowych

Rozkład niepewności przypadkowej ”u”

to N(0, σ(u)) czyli

f(u) =

1

2π σ(u)

exp



−u

2

2

(

u)



bo gdy mamy do czynienia tylko z niepewnościami
przypadkowymi wówczas:

Sa¸ spełnione założenia centralnego twierdzenia
granicznego a wie¸c rozkład niepewności pomiarowych
jest rozkładem normalnym.

Wartość oczekiwana niepewności przypadkowej u znika
(z założenia równe prawdopodobieństwo odchylenia w
góre¸ i w dół w stosunku do prawdziwej wartości
mierzonej wielkości).

Miara¸ wielkości niepewności przypadkowej jest
odchylenie standardowe rozkładu niepewności: σ(u).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

52 / 78

background image

Podstawy rachunku błe

¸dów

Rozkład pomiarów obarczonych niepewnościami

przypadkowymi

Rozkład pomiarów:

Pomiary przeprowadzane w obecności jedynie

niepewności przypadkowych maja¸ rozkład N (x

0

, σ(u)) bo

wynik pomiaru x jest przesunie¸ty od prawdziwej wartości x

0

o

niepewność przypadkową u:

x = x

0

+ u

a transformacja rozkładu f (u) do g (x ) daje wzór:

g (x ) =

1

2π σ(u)

exp



−(x−x

0

)

2

2

(

u)



.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

53 / 78

background image

Podstawy rachunku błe

¸dów

Rozkład pomiarów obarczonych niepewnościami

przypadkowymi

WNIOSKI:

Z poniższych faktów wynika, że:

szukanie prawdziwej wartości mierzonej wielkości i
jej niepewności to estymacja wartości oczekiwanej
i odchylenia standardowego pomiarów

Wartość prawdziwa mierzonej wielkości jest równa

wartości oczekiwanej pomiarów (jeżeli sa¸ tylko
niepewności przypadkowe).

Rozrzut pomiarów dokoła wartości prawdziwej jest

określony przez odchylenie standardowe σ(u) rozkładu
niepewności przypadkowych.

Miara¸ niepewności pojedynczego pomiaru jest

odchylenie standardowe pomiarów.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

54 / 78

background image

Podstawy rachunku błe

¸dów

Estymator wartości oczekiwanej

Estymator E (x )

to średnia arytmetyczna niezależnych pomiarów wielkości

x

. Be¸dziemy ja¸ oznaczać przez x :

T

n

(E (x )) ≡ x =

1
n

P

n
i =1

x

i

Kołmogorow pokazał, że x spełnia mocne prawo
wielkich liczb

a wie¸c oczywiście jest zgodny,

Estymator x jest nieobcia

¸żony

.

E (

1
n

P

i

x

i

) =

1
n

P

i

E (x

i

) =

1
n

(n · E (x )) = E (x ) c.b.d.o.

Tu wykorzystano fakt, że wszystkie wartości oczekiwane sa

¸

sobie równe E (x

i

) = E (x ).

Można pokazać, że x jest najbardziej efektywnym
estymatorem E (x ).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

55 / 78

background image

Podstawy rachunku błe

¸dów

Estymator wartości oczekiwanej

TWIERDZENIE:

Estymator x wartości oczekiwanej E (x ) ma rozkład

normalny N



E (x ),

σ(

x )

n



gdzie n jest liczba¸ pomiarów w

próbie.

WNIOSKI:

Odchylenie standardowe średniej arytmetycznej x jest

n - krotnie mniejsze

od odchylenia standardowego

pojedynczego pomiaru.

Odchylenie standardowe σ(x ) czyli

niepewność

pomiarowa średniej arytmetycznej u(¯

x )

charakteryzuje dokładność wyznaczenia prawdziwej
wartości x w danym konkretnym pomiarze
składaja¸cym sie¸ z n niezależnych doświadczeń.

Aby opisać dokładność metody pomiarowej
podajemy

niepewność pomiarową pojedynczego

pomiaru

tj. u(x ) ≡ σ(x ) .

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

56 / 78

background image

Podstawy rachunku błe

¸dów

Estymator odchylenia standardowego

Estymator S(x):

S(x ) ≡

q

1

n−1

P

n
i =1

(x

i

− x)

2

Jest to

zgodny, asymptotycznie nieobcia¸żony

estymator.

ZALECA SIĘ STOSOWANIE TEGO ESTYMATORA

Estymator s(x):

s(x ) ≡

q

1
n

P

n
i =1

(x

i

− x)

2

Jest to

zgodny, asymptotycznie nieobcia¸żony i najbardziej

efektywny

estymator

Estymator S(x):

S(x ) ≡

q

n−1

2

Γ(

n

−1

2

)

Γ(

n
2

)

· S(x)

Jest to

zgodny i nieobcia¸żony

estymator

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

57 / 78

background image

Podstawy rachunku błe

¸dów

Estymator odchylenia standardowego

UWAGA:

Współczynnik k

n

o który różni sie¸ S(x ) od S(x ) jest

znacza¸co różny od 1.0

tylko dla małych prób

i może być w

przybliżeniu zasta¸piony przez wstawienie do wzoru na S(X )
zamiast 1/(n − 1) czynnika 1/(n − 1.45).

n

k

n

q

n−1

n−1.45

3

1.1284

1.1359

4

1.0853

1.0847

5

1.0640

1.0615

6

1.0506

1.0482

7

1.0423

1.0397

10

1.0280

1.0260

15

1.0181

1.0165

20

1.0134

1.0121

25

1.0104

1.0095

50

1.0051

1.0046

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

58 / 78

background image

Podstawy rachunku błe

¸dów

Zapis wyników pomiarów

KONWENCJA:

Stosuje sie¸ naste¸puja¸ca¸

konwencje

¸ zapisu wyników

,

gdzie jako miarę niepewności pomiaru podaje się

niepewność

standardową u(x ) ≡ S(¯

x )

.

Pozostawia sie¸ tylko

dwie cyfry znacza

¸ce

standardowej niepewności pomiarowej, np. 0,023.

Wynik pomiaru obliczamy tak aby wyznaczyć jedno
miejsce dziesie¸tne dalej niż miejsce dziesie¸tne, na
którym zaokra¸glono niepewność pomiarową, a
naste¸pnie zaokra¸glamy do tego samego miejsca
dziesie¸tnego, do którego wyznaczono niepewność
pomiarową, np. zamiast 1,9024 bierzemy 1,902.

Wynik wraz z niepewnością pomiarową podajemy w
ten sposób, że

po wypisaniu wyniku dopisujemy

w nawiasie dwie cyfry znaczące reprezentujące
niepewność pomiaru i podajemy jednostkę

, np.

m = 1,902(23) kg

lub

m = 1,902(0,023) kg

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

59 / 78

background image

Podstawy rachunku błe

¸dów

Zapis wyników pomiarów

KONWENCJA (c.d.):

Stosuje się również zapis:

x = (wynik(x ) ± U(x )) jednostka(x )

, gdzie

U(x ) ≡ k · u(x )

tzw.

niepewność rozszerzona

.

”k” przyjmuje wartości 2 ≤ k ≤ 3 przy czym

domyślnie, tzn. jeżeli nie podaje się tego jawnie,

przyjmuje się k = 2.

UWAGA: ten zapis jest identyczny jak zapis stosowany
dawniej (przed przyjęciem nowej konwencji zapisu) ale
wtedy podawało się

standardową niepewność u(x )

zamiast

rozszerzonej niepewności U(x ) ≡ k · u(x )

.

Zapis przykładowy przytaczanego powyżej wyniku:

masa = (1,902

± 0.046) kg

.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

60 / 78

background image

Podstawy rachunku błe

¸dów

Zapis wyników pomiarów

UWAGA:

Zastosowanie konwencji, w której zapisujemy wynik i jego
niepewność w formie: (wynik ± niepewność pomiaru)
może prowadzić do nieporozumienia, gdy nie napiszemy
wyraźnie, że stosujemy nową konwencję i że jako

współczynnik rozszerzenia niepewności

bierzemy

k = 2

.

Zaleca się więc stosowanie zapisu, w którym podaje się

w nawiasie 2 cyfry znaczące standardowej niepewności

pomiarowej. W przeciwnym wypadku należy wyraźnie

zaznaczyć, że podajemy rozszerzoną niepewność

standardową oraz wypisać wartość k.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

61 / 78

background image

Podstawy rachunku błe

¸dów

Zapis wyników pomiarów

UWAGA:

Ponieważ omawiana metoda szacowania niepewności opiera
się o statystyczny rozrzut pomiarów rządzony rozkładem
Gaussa, to

Niepewność standardowa

pomiaru określa przedział

wartości mierzonej wielkości gdzie z

prawdopodobieństwem ≈ 0.68 znajduje się prawdziwa

wartość mierzonej wielkości.

Rozszerzona niepewność z czynnikiem rozszerzenia
k=2

określa przedział, gdzie z

prawdopodobieństwem ≈ 0.95 znajduje się prawdziwa

wartość.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

62 / 78

background image

Podstawy rachunku błe

¸dów

Zapis wyników pomiarów

Metoda A

szacowania niepewności pomiarowych to wg normy ISO
opisane powyżej wnioskowanie o niepewności pomiaru

z rozrzutu statystycznego wyników pomiaru

Metoda B

stosuje się, gdy nie możemy takiego rozrzutu zaobserwować ,
np. gdy

Działka skali przyrządu pomiarowego jest większa od
obserwowanego rozrzutu,

Pomiar można wykonać tylko jednokrotnie bo, np.
towarzyszy mu zniszczenie badanego obiektu,

itp.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

63 / 78

background image

Podstawy rachunku błe

¸dów

Zapis wyników pomiarów

W metodzie B:

Szukamy takiego przedziału [a, b] wartości mierzonej
wielkości x , że wszystkie wartości x ∈ [a, b] (np.
długość [a, b] to wielkość działki skali przyrządu).

Zakładamy funkcję gęstości prawdopodobieństwa
zmiennej x ; najczęściej zakłada się jednostajny rozkład:
f (x ) = 1/(b − a).

Odchylenie standardowe tej wielkości bierzemy jako
wartość niepewności standardowej, np. dla rozkładu
jednostajnego

u(x ) ≡ σ(x ) = (b − a)/(2

3).

UWAGA:

Ponieważ (b − a)/2 ≡ ∆x , gdzie ∆x to (tradycyjnie) tzw.

błąd maksymalny

więc wtedy

standardowa niepewność

u(x ) = ∆x /

3.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

64 / 78

background image

Rozkład liczby pozytywnie zakończonych doświadczeń

TWIERDZENIE:

Jeżeli prawdopodobieństwo zrealizowania sie¸ danego

zdarzenia losowego w pojedynczym doświadczeniu jest
równe p to liczba k zrealizowanych zdarzeń w N
niezależnych

doświadczeniach rza¸dzona jest

rozkładem

Bernoulliego

(dwumianowym, binomialnym):

P(k) =

N!

k!(N−k)!

p

k

(1 − p)

N−k

; k = 0, 1, ..N

Łatwo można pokazać, że

E (k) = N · p
σ(k) =

pN · p · (1 − p)

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

65 / 78

background image

Rozkład liczby pozytywnie zakończonych doświadczeń

Graniczny przypadek:

cze¸sto realizowany w fizyce atomowej, ja¸der

atomowych i cza¸stek elementarnych to sytuacja gdy N jest

bardzo duże

, p

bardzo małe

a wartość oczekiwana

rejestrowanych zdarzeń E (k) ≡ N · p jest

stała

.

Przykład:

N

- liczba radioaktywnych ja¸der w badanej próbce,

p

- prawdopodobieństwo rozpadu pojedynczego

radioaktywnego ja¸dra w jednostce czasu,

k

- liczba rejestrowanych rozpadów w jednostce czasu

Rozkład Poissona

jest wtedy graniczna¸ postacia¸ rozkładu Bernoulliego:

P(k) =

λ

k

k!

exp(−λ)

Wartość oczekiwana i odchylenie standardowe wyrażaja¸ sie¸
wzorem:

E (k) = λ
σ(k) =

λ

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

66 / 78

background image

Rozkład liczby pozytywnie zakończonych doświadczeń

Niepewność statystyczna

Liczba rejestrowanych w danym okresie czasu zdarzeń k rza¸dzonych
powyższymi prawami jest zmienna¸ losowa¸ a wie¸c ”prawdziwa” liczba
zdarzeń to E(k)

a jej ”niepewność” to σ(k). Nazywana jest ona

niepewnością statystyczną

(tradycyjnie ”błędem statystycznym”).

ESTYMATOR prawdziwej liczby zdarzeń

to liczba k zarejestrowanych

zdarzeń podczas pojedynczego pomiaru:

T

n

(E (k)) = k

ESTYMATOR niepewności statystycznej:

to

u(k) ≡ T

n

(σ(k)) =

k

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

67 / 78

background image

Rozkład liczby pozytywnie zakończonych doświadczeń

Niepewność statystyczna

POZORNY PARADOKS:

Im dłużej mierzymy tym niepewność liczby

zarejestrowanych zdarzeń jest wie¸ksza.

WYTŁUMACZENIE:

Istotna jest statystyczna niepewność

wzgle¸dna

u

r

(k) a nie bezwzgle¸dna u(k):

u

r

(k) ≡ u(k)/k =

1

k

NOMENKLATURA:

Pomiar z małą wzgle¸dną niepewnością statystyczną

to pomiar z

dobra

¸ statystyka

¸

a z dużą wzgle¸dną

niepewnością statystyczną to pomiar ze

zła

¸ statystyka

¸

.

UWAGA:

Należy zwracać uwage¸, że

niepewność statystyczna ma

identyczny wymiar jak liczba zdarzeń, tj. wymiar
odwrotny do czasu

mimo, że ilościowo jest pierwiastkiem z

liczby zdarzeń.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

68 / 78

background image

Rozkład liczby pozytywnie zakończonych doświadczeń

Niepewność statystyczna

W praktyce interesuje nas obok odpowiedzi na pytanie:

Ile zdarzeń zachodzi w określonym czasie ?

również odpowiedź na pytanie:

Ile zachodzi zdarzeń DANEGO TYPU ?

PRZYKŁAD:

Rejestrujemy produkty reakcji ja¸drowej. Chcemy wiedzieć

nie tylko ile reakcji zachodzi ale także ile jest produktów
posiadaja¸cych określona¸ energie¸.

PYTANIA:

1

Jakim rozkładem rza¸dzona jest liczba zdarzeń w każdym
przedziale (’kanale’) energii?

2

Co by sie¸ stało gdybyśmy dodali liczby zdarzeń z kilku
sa¸siednich kanałów (dla poprawienia ’statystyki’ liczby
zdarzeń) ?

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

69 / 78

background image

Rozkład liczby pozytywnie zakończonych doświadczeń

Niepewność statystyczna

Korzystamy z twierdzenia:

TWIERDZENIE:

Rozkład prawdopodobieństwa sumy skończonej liczby

niezależnych składników, z których każdy rza¸dzony jest
rozkładem Poissona o parametrze λ

i

jest również rozkładem

Poissona ale o nowym parametrze

λ =

P

i

λ

i

.

ODPOWIEDŹ na 1 pytanie:

Liczba zdarzeń w każdym kanale jest rza¸dzona

rozkładem Poissona ale każdy z tych rozkładów ma zwykle
różny parametr λ

i

.

ODPOWIEDŹ na 2 pytanie:

Liczba zdarzeń w kilku wysumowanych

kanałach k =

P

i

k

i

be¸dzie rza¸dzona rozkładem Poissona z

parametrem λ, którego estymator jest równy

T

n

(λ ≡ E (k)) =

P

i

k

i

.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

70 / 78

background image

Pomiary pośrednie

DEFINICJA:

Jeżeli w doświadczeniu mierzymy wielkości X

1

, X

2

, .., X

N

a

naste¸pnie wyliczamy wartość funkcji Y = Y(X

1

, X

2

, .., X

N

)

to taka¸ procedure¸ nazywamy

pomiarem pośrednim

.

ESTYMATOR:

Estymatorem E(Y) pomiaru pośredniego

jest wartość

funkcji Y wyliczona dla argumentów, które sa¸ estymatorami
prawdziwych wartości X

1

, X

2

, ..X

N

tzn. dla średnich

arytmetycznych X

1

, X

2

, ..., X

N

:

T

n

(E (Y (X

1

, X

2

, ..X

N

))) = Y (X

1

, X

2

, ..., X

N

)

lub inaczej

E (Y (X

1

, X

2

, ..X

N

)) ≈ Y (X

1

, X

2

, ..., X

N

)

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

71 / 78

background image

Pomiary pośrednie

Niepewność pomiaru pośredniego

ESTYMATOR:

niepewności pomiaru pośredniego, tzw.

złożona

niepewność standardowa

(tradycyjnie:

bła¸d średni

kwadratowy

) liczy sie¸ naste¸puja¸co (UWAGA: wzory są

słuszne przy założeniu, że pomiary X

1

, X

2

, .., X

N

były

wykonywane niezależnie odpowiednio n

1

, n

2

, .., n

N

razy):

σ(Y ) ≈

s

N

P

i =1



Y

X

i



2

X

i

=

X

i

· σ

2

(X

i

)

UWAGA:

X

1

, X

2

, ..X

N

to różne wielkości a nie kolejne pomiary

wielkości "X ",

Pochodne liczone wzgle¸dem ’X

i

’ to pochodne

cza¸stkowe tzn. liczone przy założeniu, że pozostałe

zmienne ’X

j 6=i

’ sa¸ ustalone,

Zamiast wariancji zmiennej σ

2

(X

i

) używa sie¸ jej

estymatora tzn. S

2

(X

i

) (n

i

- krotnie mniejszego od

estymatora S

2

(X

i

)).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

72 / 78

background image

Pomiary pośrednie

Błąd maksymalny

Bła¸d maksymalny pomiaru pośredniego

to tradycyjne pojęcie, które

stosowano, gdy nie można było oszacować niepewności
pomiaru bezpośredniego z rozrzutu wyników. Liczono go wg
poniższego wzoru, tzn.

metoda

¸ różniczki zupełnej

.

∆(Y ) ≈

N

P

i =1

|

Y

X

i

| · ∆(X

i

)

Tu moduły pochodnych sa¸ wyliczane dla jednokrotnie
zmierzonych wielkości X

i

a symbol ∆(X

i

) oznacza

maksymalny bła¸d tej wielkości mierzonej bezpośrednio.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

73 / 78

background image

Pomiary pośrednie

Błąd maksymalny

Zgodnie z nową NORMĄ:

Nie należy używać pojęcia błędu maksymalnego lecz liczyć

niepewność pomiaru pośredniego jako

złożoną niepewność

pomiarową

wstawiając zamiast niepewności pomiarów

bezpośrednich otrzymanych "metodą A"(tzn. z rozrzutu
pomiarów) niepewności oszacowane "metodą B".

Należy tak postępować bo:

W odróżnieniu od złożonej niepewności standardowej

bła¸d maksymalny nie ma interpretacji statystycznej

.

Łatwo można pokazać , że błąd maksymalny obliczony
metoda¸ różniczki zupełnej

jest zawsze wie¸kszy od

złożonej niepewności standardowej.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

74 / 78

background image

Pomiary pośrednie

Regresja liniowa

DEFINICJA:

Regresja liniowa zmiennej Y wzgle

¸dem zmiennej X

to

linia prosta Y = a · X + b z parametrami a i b dobranymi
tak aby minimalizować sume¸ kwadratów odchyleń
współrze¸dnych (y

i

, i = 1, 2, ..n) zespołu n punktów o

współrze¸dnych (x

1

, y

1

),(x

2

, y

2

),... (x

n

, y

n

) od tej linii:

Q

2

=

n

P

i =1

(y

i

− a · x

i

− b)

2

Zmienna Y nazywana jest

zmienna

¸ objaśniana

¸

a

zmienna X

zmienna

¸ objaśniaja

¸ca

¸

.

UWAGA:

Regresja liniowa X wzgle¸dem Y tj. prosta X = c · Y + d
pokrywa sie¸ z regresja¸ liniowa¸ Y wzgle¸dem X tj. prosta¸
Y = a · X + b znaleziona¸ dla tego samego zespołu punktów
doświadczalnych tylko wtedy gdy zwia¸zek pomie¸dzy X i Y
jest funkcyjnym zwia¸zkiem liniowym (a nie zależnościa¸
statystyczna¸).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

75 / 78

background image

Pomiary pośrednie

Regresja liniowa

Specyficzna sytuacja:

polegaja¸ca¸ na tym, że:

zmienna objaśniaja¸ca X ma

zaniedbywalnie małe

niepewności

traktowana jako nielosowa zmienna.

zmienna objaśniana Y jest zmienna¸ losowa¸ o

identycznej

niepewności standardowej σ(Y ) dla wszystkich punktów.

Wtedy dostajemy proste, analityczne wzory na estymatory
parametrów regresji

:

T

n

(b)

=

(

P

i

x

i

2

) · (

P

i

y

i

) − (

P

i

x

i

) · (

P

i

x

i

· y

i

)

W

T

n

(a)

=

n

· (

P

i

x

i

· y

i

) − (

P

i

x

i

) · (

P

i

y

i

)

W

W

≡ n ·

X

i

x

2

i

− (

X

i

x

i

)

2

Wskaźnik sumowania i przebiega wartości od 1 do n.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

76 / 78

background image

Pomiary pośrednie

Regresja liniowa

Niepewności standardowe estymatorów parametrów a i b

również wyrażaja¸

sie¸ analitycznymi wzorami:

T

n

(σ(b))

=

σ(Y ) ·

s

P

i

x

2

i

W

T

n

(σ(a))

=

σ(Y ) ·

r n

W

Niepewność standardowa wartości Y przewidzianej przez linie¸ regresji

(zależna od x):

T

n

(σ(Y (x )))

=

σ(Y ) ·

s

1

n

+

(x − x )

2

P

i

(x

i

− x)

2

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

77 / 78

background image

Pomiary pośrednie

Regresja liniowa

UWAGA:

W praktyce opuszcza sie¸ symbol estymatora, zarówno dla
parametrów regresji a, b jak i dla wartości Y przewidzianej
przez regresje¸, tzn. zamiast T

n

(a) pisze sie¸ po prostu a, itd.

ale należy pamie¸tać, że sa¸ to estymatory. W powyższych
wzorach zastosowano naste¸puja¸ce oznaczenia:

T

n

(σ(Y (x )))

to estymator niepewności wartości Y (x )

przewidzianej przez regresje¸,

σ(Y )

to niepewność pomiarowa współrze¸dnej Y

i

z

założenia taka sama dla wszystkich punktów,

x

to średnia arytmetyczna wartości zmiennej

kontrolowanej wyliczona ze współrze¸dnych punktów
x

1

, x

2

, ...x

n

,

x

- to wartość zmiennej kontrolowanej X , dla której

wyliczamy wartość regresji liniowej Y (x ) i estymator
niepewności regresji liniowej T

n

(σ(Y (x ))).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

78 / 78


Document Outline


Wyszukiwarka

Podobne podstrony:
Kamys B Statystyczne metody opracowania pomiarów 1
B Kamys Statystyczne metody opracowania wyników pomiarów
B Kamys Statystyczne metody opracowania wyników pomiarów
pytanie4, wisisz, wydzial informatyki, studia zaoczne inzynierskie, statystyczne metody wspomagania
pytania swd z odpowiedziami mini, wisisz, wydzial informatyki, studia zaoczne inzynierskie, statysty
METODYKA OPRACOWYWANIA WYNIKÓW POMIAROWYCH, MET0DYKA-spr., POLITECHNIKA RADOMSKA
Statystyczne metody pomiarów
Metrologia-lab-Metodyka opracowań wyników pomiarowych, METPOM S, POLITECHNIKA RADOMSKA
uzu0.4, wisisz, wydzial informatyki, studia zaoczne inzynierskie, statystyczne metody wspomagania de
SWD3, wisisz, wydzial informatyki, studia zaoczne inzynierskie, statystyczne metody wspomagania decy
swd-ustny-2, wisisz, wydzial informatyki, studia zaoczne inzynierskie, statystyczne metody wspomagan
swd5, wisisz, wydzial informatyki, studia zaoczne inzynierskie, statystyczne metody wspomagania decy
egzaminswd v2, wisisz, wydzial informatyki, studia zaoczne inzynierskie, statystyczne metody wspomag
Metrologia-lab-Metodyka opracowań wyników pomiarowych, Metodyka opracowań wyników pomiarowychspr, PO
egzaminswd, wisisz, wydzial informatyki, studia zaoczne inzynierskie, statystyczne metody wspomagani
Analiza dynamiki, wisisz, wydzial informatyki, studia zaoczne inzynierskie, statystyczne metody wspo

więcej podobnych podstron