background image

STATYSTYCZNE METODY OPRACOWANIA

POMIARÓW I

B. Kamys 2007/08

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

1 / 78

background image

Podstawy teorii prawdopodobieństwa

DEFINICJA:

Zbiór zdarzeń elementarnych

- zbiór takich zdarzeń, które

sie¸ wzajemnie wykluczaja¸ oraz wyczerpuja¸ wszystkie
możliwości (tzn. w każdym możliwym przypadku
przynajmniej jedno z nich musi zachodzić).

DEFINICJA:

Zdarzeniem

jest dowolny podzbiór zdarzeń elementarnych E.

DEFINICJA:

Zdarzeniem pewnym

jest zdarzenie zawieraja¸ce wszystkie

elementy zbioru E (zachodzi zawsze).

DEFINICJA:

Zdarzeniem niemożliwym

jest zdarzenie nie zawieraja¸ce

żadnego elementu zbioru E tj. zbiór pusty ∅.

DEFINICJA:

Zdarzenie A zawiera sie

¸ w zdarzeniu B

jeżeli każde

zdarzenie elementarne należa¸ce do zbioru A należy do B:
A

⊂ B

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

2 / 78

background image

Podstawy teorii prawdopodobieństwa

DEFINICJA:

Zdarzenia A i B sa

¸ równe

gdy A ⊂ B i B ⊂ A.

DEFINICJA:

Suma zdarzeń A + B

to zdarzenie zawieraja¸ce te i tylko te zdarzenia elementarne,
które należa¸ do któregokolwiek ze zdarzeń A, B (suma
logiczna zbiorów zdarzeń elementarnych A

S B).

DEFINICJA:

Różnica zdarzeń A

− B

to zdarzenie zawieraja¸ce te i tylko te zdarzenia elementarne,
które należa¸ do zdarzenia A a nie należa¸ do zdarzenia B.

DEFINICJA:

Iloczyn zdarzeń A

· B

to zdarzenie zawieraja¸ce te i tylko te

zdarzenia elementarne, które należa¸ do wszystkich zdarzeń A,
B

(tzn. w je¸zyku zbiorów A

T B).

DEFINICJA:

Zdarzeniem przeciwnym do A:

A

nazywamy różnice¸

E − A .

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

3 / 78

background image

Podstawy teorii prawdopodobieństwa

INTUICYJNE OKREŚLENIE:

Zdarzenie losowe

to takie, o którym zwykle

nie możemy powiedzieć czy zajdzie w danych warunkach czy
też nie zajdzie.

DEFINICJA:

Zdarzeniem losowym

- nazywamy zdarzenie spełniaja¸ce

poniższe warunki:

1

W zbiorze zdarzeń losowych znajduje sie¸ zdarzenie
pewne

oraz zdarzenie niemożliwe.

2

Jeżeli zdarzenia A

1

, A

2

, ... w ilości skończonej lub

przeliczalnej sa¸ zdarzeniami losowymi to ich iloczyn i ich
suma

sa¸ również zdarzeniami losowymi.

3

Jeżeli A

1

i A

2

sa¸ zdarzeniami losowymi to ich różnica

jest również zdarzeniem losowym.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

4 / 78

background image

Podstawy teorii prawdopodobieństwa

DEFINICJA:

Zmienna

¸ losowa

¸

nazywamy jednoznaczna¸ funkcje¸

rzeczywista¸ X (e) określona¸ na zbiorze E zdarzeń
elementarnych taka¸, że każdemu przedziałowi wartości funkcji
X

odpowiada zdarzenie losowe.

DEFINICJA:

Zmienna losowa

typu skokowego (dyskretnego)

to taka,

która przyjmuje tylko co najwyżej przeliczalny zbiór wartości.

DEFINICJA:

Zmienna losowa

typu cia

¸głego

- może przyjmować dowolne

wartości od minus do plus nieskończoności.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

5 / 78

background image

Podstawy teorii prawdopodobieństwa

DEFINICJA:

Definicja prawdopodobieństwa

Aksjomat 1:

Każdemu zdarzeniu losowemu przyporza¸dkowana jest
jednoznacznie nieujemna liczba rzeczywista zwana
prawdopodobieństwem.

Aksjomat 2:

Prawdopodobieństwo zdarzenia pewnego jest równe jedności.

Aksjomat 3:

Jeżeli zdarzenie losowe Z jest suma¸ skończonej lub
przeliczalnej liczby rozła

¸cznych

zdarzeń losowych Z

1

,Z

2

,..

to prawdopodobieństwo zrealizowania sie¸ zdarzenia Z jest
równe sumie prawdopodobieństw zdarzeń Z

1

,Z

2

, ..

Aksjomat 4:

Prawdopodobieństwo warunkowe

zdarzenia A pod

warunkiem, że zachodzi zdarzenie B; P(A | B) wyraża sie¸
wzorem:

P(A | B) =

P(A·B)

P(B)

Prawdopodobieństwo to jest nieokreślone, gdy
prawdopodobieństwo zdarzenia B wynosi zero.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

6 / 78

background image

Podstawy teorii prawdopodobieństwa

Własności prawdopodobieństwa

Zdarzenie przeciwne do A

:

P(A) = 1 − P(A)

Dowód:
A + A = E a wie¸c P(A + A) = P(E) = 1,
z drugiej strony A i A wykluczaja

¸ sie¸ wie¸c

P(A + A) = P(A) + P(A).
Sta

¸d P(A) = P(E) − P(A) czyli P(A) = 1 − P(A) c.b.d.o.

Zdarzenie niemożliwe

:

P(∅) = 0

Dowód:
E i ∅ wykluczaja¸ sie¸ wie¸c P(E + ∅) = P(E) + P(∅) oraz
E + ∅ = E a wie¸c P(E + ∅) = P(E), czyli P(∅) = 0
c.b.d.o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

7 / 78

background image

Podstawy teorii prawdopodobieństwa

Własności prawdopodobieństwa

Zdarzenie A zawiera sie¸ w B

:

P(A) ≤ P(B)

Dowód: P(B) = P(A + (A · B)) = P(A) + P(A · B) ≥ P(A)
c.b.d.o.

Dowolne zdarzenie losowe

:

0

≤ P(A) ≤ 1

Dowód: Dla każdego zdarzenia jest prawdziwe:
∅ ⊂ A + ∅ = A = A · E ⊂ E
a wie¸c prawdopodobieństwa zdarzeń ∅, A i E spełniaja

¸:

0 ≤ P(A) ≤ 1
c.b.d.o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

8 / 78

background image

Podstawy teorii prawdopodobieństwa

Własności prawdopodobieństwa

Suma dowolnych zdarzeń A + B

:

P(A + B) = P(A) + P(B) − P(A · B)

Dowód:
Zarówno A + B jak i B możemy zapisać jako sumy rozła

¸cznych

(wykluczaja

¸cych sie¸) zdarzeń:

A + B

=

A + (B − A · B)

oraz

B

=

A · B + (B − A · B),

stosujemy aksjomat nr 3 definicji prawdopodobieństwa,

P(A + B)

=

P(A) + P(B − A · B),

P(B)

=

P(A · B) + P(B − A · B)

odejmujemy stronami: P(A + B) = P(A) + P(B) − P(A · B)
c.b.d.o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

9 / 78

background image

Podstawy teorii prawdopodobieństwa

Własności prawdopodobieństwa

Iloczyn zdarzeń A · B

:

P(A · B) = P(B) · P(A | B) = P(A) · P(B | A)

Dowód:
Wynika to automatycznie z 4 aksjomatu definicji
prawdopodobieństwa.

DEFINICJA:

Zdarzenie

A jest niezależne od B

gdy P(A | B) = P(A).

TWIERDZENIE:

Jeżeli A nie zależy od B to B nie zależy od A.

Dowód:
Korzystamy z dwu wzorów na prawdopodobieństwo A · B
podanych wyżej, przy czym w pierwszym z nich uwzgle¸dniamy, że
A jest niezależne od B. Wówczas z porównania obu wzorów
dostajemy P(B | A) = P(B).
c.b.d.o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

10 / 78

background image

Podstawy teorii prawdopodobieństwa

Własności prawdopodobieństwa

WKW niezależności:

P(A · B) = P(A) · P(B)

Dowód:
Wynika to automatycznie ze wzoru na prawdopodobieństwo
iloczynu zdarzeń.
c.b.d.o

Formuła całkowitego prawdopodobieństwa:

Jeżeli istnieje zbiór zdarzeń A

1

,

A

2

, ... wykluczaja

¸cych sie¸ wzajemnie i wyczerpuja¸cych

wszystkie możliwości wówczas prawdopodobieństwo
dowolnego zdarzenia B może być zapisane naste¸puja¸co:

P(B) =

P

i

P(A

i

) · P(B | A

i

)

Dowód:
B =

P

i

B · A

i

(suma rozła

¸cznych zdarzeń) a wie¸c

P(B) =

P

i

P(B · A

i

) a każdy składnik można zapisać jako

P(A

i

) · P(B | A

i

). c.b.d.o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

11 / 78

background image

Ilościowy opis zmiennych losowych

Ilościowy opis zmiennych losowych uzyskujemy stosuja¸c

Dystrybuante

¸

(Zwana¸ cze¸sto przez statystyków funkcja

¸ rozkładu

)

Rozkład prawdopodobieństwa

(Tylko dla zmiennych dyskretnych)

Funkcje

¸ ge

¸stości prawdopodobieństwa

(Tylko dla zmiennych

cia¸głych) oraz wielkości charakteryzuja¸ce te powyżej wymienione twory.

DEFINICJA:

Dystrybuanta

¸ F(x)

nazywamy prawdopodobieństwo tego, że

zmienna losowa X przyjmie wartość mniejsza¸ od x .
(X - to symbol zmiennej losowej a x to jej konkretna
wartość). Oczywiście dystrybuanta jest funkcja¸ x .

F (x ) ≡ P(X < x )

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

12 / 78

background image

Ilościowy opis zmiennych losowych

Własności dystrybuanty:

1

0

≤ F (x) ≤ 1

2

F (−∞) = 0

3

F (+∞) = 1

4

F (x ) jest niemaleja¸ca¸ funkcja¸

5

F (x ) nie posiada wymiaru

Przykład:

Dla rzutu kostka¸ do gry, gdzie jako zmienna¸ losowa¸ przyje¸to
liczbe¸ wyrzuconych punktów:

F (x ) = 0 dla x ≤ 1,

=

1/6 dla 1 < x ≤ 2,

=

2/6 dla 2 < x ≤ 3,

=

3/6 dla 3 < x ≤ 4,

=

4/6 dla 4 < x ≤ 5,

=

5/6 dla 5 < x ≤ 6,

=

1 dla x > 6

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

13 / 78

background image

Ilościowy opis zmiennych losowych

DEFINICJA:

Rozkład prawdopodobieństwa

: Jeżeli x

i

(i = 1, 2, ...) sa

¸

wartościami dyskretnej zmiennej losowej to rozkładem
prawdopodobieństwa nazywamy zespół prawdopodobieństw:

P(X = x

i

) = p

i

P

i

p

i

= 1

Przykład:

Rozkład prawdopodobieństwa dla rzutu kostka¸ do gry
omawianego powyżej: p

i

= 1/6 dla i = 1, 2..6.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

14 / 78

background image

Ilościowy opis zmiennych losowych

DEFINICJA:

Funkcja ge

¸stości prawdopodobieństwa f(x):

f (x )dx ≡ P(x ≤ X ≤ x + dx )

Własności funkcji ge¸stości prawdopodobieństwa:

1

f (x ) ≥ 0,

2

f (x ) jest unormowana
tj.

R

+∞

−∞

f (x )dx = 1

3

f (x ) =

dF (x )

dx

4

wymiar f (x ) = wymiar (1/x )

Przykład:

Rozkład jednostajny na odcinku [a, b]:

f (x ) =

0

dla

x < a

1/(b − a)

dla

a

≤ x ≤ b

0

dla

x > b

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

15 / 78

background image

Funkcje zmiennej losowej

Funkcja Y zmiennej losowej X:

Y = Y (X )

jest również zmienna¸ losowa¸. Dlatego też można dla niej
określić dystrybuante¸, rozkład prawdopodobieństwa lub
funkcje¸ ge¸stości prawdopodobieństwa. Sa¸ one prosto
zwia¸zane z odpowiednimi wielkościami dla zmiennej X .

Należy rozpatrzyć niezależnie przypadek, gdy funkcja Y (X )
jest monotoniczna oraz gdy nie posiada tej własnosci

. W

pierwszym wypadku można jednoznacznie określić funkcje¸
odwrotna¸ X = X (Y ) a w drugim cały przedział wartości X
trzeba podzielić na rozła¸czne podprzedziały, w których
funkcja be¸dzie monotoniczna a wyniki dodać
(prawdopodobieństwa rozła¸cznych zdarzeń sumuja¸ sie¸).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

16 / 78

background image

Funkcje zmiennej losowej

Dla monotonicznej funkcji Y = Y(X):

Dystrybuanta G(y) rosna¸cej funkcji Y(X)

wynosi:

G (y ) = F (x (y ))

Dowód:

Wychodza¸c z definicji dla Y(X) rosna¸cej:

G (y ) = P(Y < y )

=

P (X (Y ) < x )

=

F (x (y ))

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

17 / 78

background image

Funkcje zmiennej losowej

Dla monotonicznej funkcji Y = Y(X):

Dystrybuanta G(y) maleja¸cej funkcji Y(X)

wynosi:

G (y ) = 1 − F (x (y )) − P (x ; y = y (x ))

Dowód:

Wychodza¸c z definicji dystrybuanty

G (y ) = P(Y < y )

=

P (X (Y ) > x )

=

1

− P (X (Y ) ≤ x)

=

1

− P (X (Y ) < x) − P (X (Y ) = x)

=

1

− F (x(y )) − P (x; Y = y (x))

c.b.d .o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

18 / 78

background image

Funkcje zmiennej losowej

Rozkład prawdopodobieństwa P(y):

P(y

i

) = P(x

i

; y

i

= Y (x

i

))

bo dla

funkcji monotonicznej wartości x

i

sa¸ jednoznacznie zwia¸zane

z wartosciami y

i

.

Funkcja ge¸stości prawdopodobieństwa g(y):

g (y ) = f (x (y )) |

dx (y )

dy

|

gdzie X (Y ) jest funkcja¸ odwrotna¸ do Y (X ). Z definicji:
f (x )dx = P(x ≤ X < x + dx ) a to prawdopodobieństwo
przy jednoznacznym zwia¸zku mie¸dzy X i Y wynosi
P(y ≤ Y < y + dy ) = g (y )dy .
Iloraz nieskończenie małych przyrostów dy /dx równy jest
pochodnej z dokładnościa¸ do znaku. A wie¸c moduł przy
pochodnej pojawia sie¸ sta¸d, że przy maleja¸cej funkcji Y (X )
pochodna be¸dzie ujemna a iloraz nieskończenie małych
przyrostów jest zawsze dodatni.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

19 / 78

background image

Funkcje zmiennej losowej

Przykład dla funkcji monotonicznej:

Y (X ) = aX + b ; a i b to

rzeczywiste stałe.

Rozkład prawdopodobieństwa:

P(Y = y

i

) = P(ax

i

+ b = y

i

) = P(x

i

=

y

i

−b

a

).

Dystrybuanta:

dla a > 0

G (y ) = F



x =

y −b

a



dla a < 0

G (y ) = 1 − F



x =

y −b

a



− P



x =

y −b

a



Ge¸stość prawdopodobieństwa:

g (y ) =

1

|a|

f (x =

y −b

a

) .

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

20 / 78

background image

Funkcje zmiennej losowej

Przykład dla funkcji niemonotonicznej:

Y (X ) = X

2

1.) Rozkład prawdopodobieństwa

wynosi:

P(y

i

) = P(X

2

= y

i

) = P(X = −

y

i

) + P(X = +

y

i

)

2.) Dystrybuanta

wynosi:

G (y ) = P(Y < y ) = P(X

2

< y )

=

P(−

y < X < +

y )

G (y ) = 0 dla y ≤ 0

G (y ) = F (

y ) − F (−

y ) dla y ≥ 0

3.) Rozkład ge¸stości prawdopodobieństwa

wynosi:

g (y ) = 0 dla y < 0

g (y ) = |

−1

2

y

| f (

y ) +

1

2

y

f (−

y )

=

1

2

y

(f (

y ) + f (−

y )) dla y ≥ 0

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

21 / 78

background image

Charakterystyki opisowe

W praktycznych zastosowaniach cze¸sto wystarcza poznanie wartości
pewnych wielkości, które charakteryzuja¸ rozkład prawdopodobieństwa
zamiast pełnej informacji o rozkładzie.

Oto najcze¸ściej stosowane:

DEFINICJA:

fraktyl x

q

(zwany również

kwantylem

) jest to taka wartość

zmiennej losowej, że prawdopodobieństwo znalezienia
mniejszych od niej wartości wynosi q:

P(X < x

q

) ≡ F (x

q

) = q

Najważniejsze fraktyle to

dolny kwartyl: x

0.25

,

górny kwartyl: x

0.75

oraz

mediana: x

0.5

.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

22 / 78

background image

Charakterystyki opisowe

DEFINICJA:

Moda

(zwana również

wartościa

¸ modalna

¸

) jest to taka

wartość zmiennej losowej, dla której rozkład
prawdopodobieństwa (lub funkcja ge¸stości
prawdopodobieństwa) przyjmuje maksimum.

DEFINICJA:

Rozkłady prawdopodobieństwa posiadaja¸ce jedna¸ mode¸
zwane sa¸

jednomodalnymi

a te, które maja¸ wie¸cej niż jedna¸

-

wielomodalnymi

.

DEFINICJA:

Wartość oczekiwana

,

wartość średnia

lub

nadzieja

matematyczna

. Be¸dziemy go oznaczali przez E(X)

(stosuje sie¸ również oznaczenie M(X) lub ^

X

).

E(X ) ≡

P

i

x

i

· p

i

dla zmiennych dyskretnych,

E(X ) ≡

R x · f (x) dx

dla zmiennych cia¸głych

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

23 / 78

background image

Charakterystyki opisowe

INTERPRETACJA E(X):

E (X ) jest współrze¸dna¸ punktu, który
byłby środkiem masy rozkładu praw-
dopodobieństwa (lub pola pod funkcja¸
ge¸stości prawdopodobieństwa) gdyby
prawdopodobieństwa poszczególnych
wartości x

i

traktować jako masy

(lub

odpowiednio

ge¸stość

praw-

dodobieństwa jako zwykła¸ ge¸stość).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

24 / 78

background image

Charakterystyki opisowe

WŁASNOŚCI E(X)

: E (X ) jest operatorem liniowym a wie¸c:

1

E (

P

i

C

i

· X

i

) =

P

i

C

i

· E (X

i

)

co w szczególnych przypadkach daje:

E (C ) = C

E (C · X ) = C · E (X )

E (X

1

+ X

2

) = E (X

1

) + E (X

2

)

2

Dla zmiennych niezależnych X

1

, ..., X

n

E



Q

i

X

i



=

Q

i

E

{X

i

}

UWAGA:

Warunkiem koniecznym i wystarczaja¸cym by

zmienne

były

niezależne

jest aby wspólny rozkład prawdopodobieństwa

faktoryzował sie¸:
f (X

1

, X

2

, .., X

n

) = f

1

(X

1

) · f

2

(X

2

)...f

n

(X

n

).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

25 / 78

background image

Charakterystyki opisowe

Dla funkcji zmiennej X; Y = Y (X )

wartość oczekiwana E (Y ) może być

znaleziona przy pomocy rozkładu zmiennej X bez
konieczności szukania rozkładu g (y ):

E (Y ) =

P

i

y (x

i

) · p

i

,

E (Y ) =

R y (x) · f (x) · dx

odpowiednio dla zmiennej dyskretnej i dla zmiennej cia¸głej.

DEFINICJA:

Momentem rozkładu rze

¸du k wzgle

¸dem punktu x

0

,

nazywamy naste¸puja¸ca¸ wielkość:

m

k

(x

0

) ≡ E {(x − x

0

)

k

}

czyli

m

k

(x

0

) ≡

R (x − x

0

)

k

· f (x) · dx

m

k

(x

0

) ≡

P

i

(x

i

− x

0

)

k

p(x

i

)

odpowiednio dla zmiennych cia¸głych i dyskretnych.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

26 / 78

background image

Charakterystyki opisowe

Najważniejszymi momentami sa¸ te, które

liczone sa¸ wzgle¸dem pocza¸tku układu współrze¸dnych tj. x

0

= 0

(oznacza sie¸ je zwykle przez

m

k

)

oraz

momenty liczone wzgle¸dem x

0

= m

1

tj. wzgle¸dem pierwszego momentu

liczonego od pocza¸tku układu współrze¸dnych. Te ostatnie momenty
nazywa sie¸

momentami centralnymi

(zwykle oznaczane sa¸ przez

µ

k

).

UWAGA:

m

1

≡ E (x);

µ

1

≡ 0

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

27 / 78

background image

Charakterystyki opisowe

DEFINICJA:

µ

2

, zwany

wariancja

¸

lub

dyspersja

¸

. Be¸dziemy go oznaczać

przez σ

2

(X ) lub var (X ) (stosuje sie¸ również oznaczenie

D(X )).

DEFINICJA:

Pierwiastek z wariancji nazywany jest

odchyleniem

standardowym

i oznaczany σ(X ) ale czasami używa sie¸

również nazwy

dyspersja

.

σ

2

(X ) ≡

P

i

(x

i

− E (x))

2

· p

i

zmienna dyskretna

σ

2

(X ) ≡

R (x − E (x))

2

· f (x) · dx

zmienna cia¸gła

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

28 / 78

background image

Charakterystyki opisowe

WŁASNOŚCI WARIANCJI:

Wariancja może być wyrażona przez momenty

liczone wzgle¸dem pocza¸tku układu współrze¸dnych:

σ

2

(X ) = m

2

− m

2

1

σ

2

(X ) = E (X

2

) − E

2

(X )

DOWÓD:

Korzystamy z trzeciej własności wartości oczekiwanej tj.

m

2

(E (X ))

E ((X − E (X ))

2

)

=

E (X

2

− 2X · E (X ) + E

2

(X ))

=

E (X

2

) − 2E (X ) · E (X ) + E

2

(X )

=

E (X

2

) − E

2

(X )

c.b.d.o.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

29 / 78

background image

Charakterystyki opisowe

var (C ) = 0

bo E (C

2

) − E

2

(C ) = C

2

− C

2

= 0 c.b.d.o.

var (C · X ) = C

2

· var (X )

jest to naste¸pstwo liniowości E(X), przez która

¸ definiowaliśmy var(X).

var (C

1

· X + C

2

) = C

2

1

· var (X )

Przesunięcie skali o C

2

nie zmienia wariancji a pomnożenie zmiennej

przez C

1

wprowadza czynnik C

2

1

j.w.

Dla zmiennych niezależnych

var (

P

i

C

i

· X

i

) =

P

i

C

2

i

· var (X )

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

30 / 78

background image

Charakterystyki opisowe

DOWÓD:

Wzór ten łatwo wyprowadzić przypominaja¸c definicje¸
wariancji i korzystaja¸c z trzeciej własności wartości

oczekiwanej: var (y =

P

i

C

i

· X

i

) ≡ E



(y − E (Y ))

2



.

Po wstawieniu do wzoru oraz podniesieniu do kwadratu
otrzymamy

sume¸ kwadratów

wyrażeń C

i

· (X

i

− E (X

i

))

oraz

iloczyny mieszane

tych wyrażeń.

Iloczyny mieszane znikna¸ w chwili gdy podziała na nie

zewne¸trzny operator wartości oczekiwanej (bo
E (X − E (X )) = E (X ) − E (X ) = 0).

Założenie niezależności jest potrzebne przy liczeniu wartości

oczekiwanej z iloczynów mieszanych (wówczas wartość
oczekiwana iloczynu równa jest iloczynowi wartości
oczekiwanych). Suma wartości oczekiwanych z kwadratów
wyrażeń C

i

· (X

i

− E (X

i

)) jest właśnie poszukiwanym przez

nas wyrażeniem.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

31 / 78

background image

Charakterystyki opisowe

Interpretacja wariancji wynika z

nierówności Czebyszewa

, która¸ można

zapisać naste¸puja¸co:

P (| X − E (X ) |≥ a · σ(X )) ≤ a

−2

TWIERDZENIE:
Prawdopodobieństwo odchylenia wartości zmiennej losowej od wartości
oczekiwanej E(X) o a -krotna¸ wartość odchylenia standardowego jest
mniejsze lub równe od

1

a

2

.

Twierdzenie to jest słuszne dla wszystkich rozkładów, które posiadaja¸
wariancje¸ (a wie¸c, co za tym idzie i wartość oczekiwana¸). Liczba a jest
dowolna¸ dodatnia¸ liczba¸.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

32 / 78

background image

Charakterystyki opisowe

INTERPRETACJA WARIANCJI:

Korzystaja¸c z nierówności Czebyszewa

dochodzimy do wniosku, że

wariancja (lub odchylenie standardowe) jest miara¸ rozrzutu

zmiennej losowej dokoła wartości oczekiwanej .

Jest to bardzo ważny wniosek bo w analizie danych
doświadczalnych

utożsamiamy wartość oczekiwana¸ pomiarów

wykonanych w obecności przypadkowych niepewności
pomiarowych

z wartościa¸ prawdziwa¸

mierzonej wielkości.

Wtedy

miara¸ przypadkowej niepewności pomiarowej jest

odchylenie standardowe

bo ono określa rozrzut wyników

dokoła wartości prawdziwej.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

33 / 78

background image

Podstawowe poje

¸cia teorii estymacji

DEFINICJA:

W statystyce skończony zespół doświadczeń nazywamy

próba

¸

a wnioskowanie na podstawie próby o własnościach
nieskończonego (zwykle) zespołu wszystkich możliwych
doświadczeń zwanego

populacja

¸ generalna

¸

, nazywamy

estymacja

¸

.

DEFINICJA:

Przez

próbe

¸ prosta

¸

rozumiemy cia¸g niezależnych

doświadczeń odnosza¸cych sie¸ do tej samej populacji
generalnej.

DEFINICJA:

Statystyka

¸

nazywamy taka¸ funkcje¸ zmiennych losowych

obserwowanych w próbie, która sama jest zmienna¸ losowa¸.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

34 / 78

background image

Podstawowe poje

¸cia teorii estymacji

DEFINICJA:

Estymatorem T

n

(x

1

, x

2

, ..x

n

; θ)

parametru θ lub w skrócie

T

n

(θ)

nazywamy statystyke¸ o rozkładzie

prawdopodobieństwa zależnym od θ. Tu ’x

1

, x

2

, ..’ oznaczaja

¸

wyniki pomiarów próby.

DEFINICJA:

Estymacja punktowa

to taka estymacja, która polega na

oszacowaniu wartości danego parametru θ przez wartość jego
estymatora T

n

(θ).

DEFINICJA:

Estymacja przedziałowa

polega na szukaniu przedziału

liczbowego, wewna¸trz którego z założonym
prawdopodobieństwem leży prawdziwa wartość parametru.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

35 / 78

background image

Podstawowe poje

¸cia teorii estymacji

DEFINICJA:

Estymator T

n

(θ), jest

zgodny

jeżeli dla każdego  > 0 jest

spełniony warunek:

lim

n→∞

P(| T

n

(θ) − θ |< ) = 1

W takim przypadku używa sie¸ cze¸sto określenia, że

estymator spełnia prawo wielkich liczb

.

PRZYKŁAD:

TWIERDZENIE (Bernoulli):

Wzgle¸dna cze¸stość

pojawiania sie¸ zdarzenia A w cia¸gu n doświadczeń spełnia
prawo wielkich liczb czyli jest zgodnym estymatorem
prawdopodobieństwa zdarzenia A: P(A).

lim

n→∞

P(| n

A

/n − P(A) |< ) = 1

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

36 / 78

background image

Podstawowe poje

¸cia teorii estymacji

DEFINICJA:

Estymator

spełniaja

¸cy mocne prawo wielkich liczb

to

taki, który jest zbieżny do estymowanego parametru z
prawdopodobieństwem równym jedności:

P(lim

n→∞

T

n

(θ) = θ) = 1

PRZYKŁAD:

TWIERDZENIE: F.P.Cantelli

udowodnił w 1917 roku, że

wzgle¸dna cze¸stość pozytywnego zakończenia doświadczenia;
n

A

/n jest zbieżna do prawdopodobieństwa zdarzenia A;

P(A) z prawdopodobieństwem równym jedności:

P(lim

n→∞

(n

A

/n) = P(A)) = 1

czyli wzgle¸dna cze¸stość spełnia mocne prawo wielkich liczb.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

37 / 78

background image

Podstawowe poje

¸cia teorii estymacji

DEFINICJA:

Estymatorem nieobcia

¸żonym

T

n

(θ) parametru θ

nazywamy taki estymator, którego wartość oczekiwana równa
jest wartości estymowanego parametru niezależnie od
rozmiarów próby:

E (T

n

(θ)) = θ

DEFINICJA:

Obcia

¸żeniem estymatora ’B

n

nazywamy różnice¸ jego

wartości oczekiwanej i wartości estymowanego parametru:

B

n

= E (T

n

(θ)) − θ

DEFINICJA:

Estymatorem obcia

¸żonym

nazywamy taki estymator,

którego obcia¸żenie jest różne od zera.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

38 / 78

background image

Podstawowe poje

¸cia teorii estymacji

DEFINICJA:

Estymatorem asymptotycznie nieobcia

¸żonym

nazywamy

taki estymator obcia¸żony, którego obcia¸żenie zmierza do zera
gdy rozmiary próby nieskończenie rosna¸:

lim

n→∞

B

n

= 0

TWIERDZENIE:

Jeżeli wariancja estymatora nieobcia¸żonego lub

asymptotycznie nieobcia¸żonego da¸ży do zera gdy rozmiary
próby rosna¸ nieograniczenie wówczas estymator ten jest
zgodny.

TWIERDZENIE:

Jeżeli T

n

(θ) jest zgodnym estymatorem θ i jeżeli h(θ)

jest wielomianem lub ilorazem wielomianów to estymator
h(T

n

(θ)) jest estymatorem zgodnym dla h(θ).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

39 / 78

background image

Rozkład normalny (Gaussa)

DEFINICJA:

Cia¸gła zmienna losowa X, której funkcja ge¸stości
prawdopodobieństwa ma naste¸puja¸ca¸ postać:

f (X ) =

1

2π B

exp



−(X −A)

2

2B

2



nazywa sie¸

zmienna

¸ o rozkładzie normalnym

N(A, B).

Wartość oczekiwana:

E (X ) = A

Odchylenie standardowe:

σ(X ) = B

Sta¸d łatwo widać, że N(A, B) ≡ N (E (X ), σ(X ))

Dystrybuanta:

rozkładu normalnego nie wyraża sie¸ przez funkcje

elementarne.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

40 / 78

background image

Rozkład normalny (Gaussa)

Warto zapamie¸tać naste¸puja¸ce wartości prawdopodobieństwa znalezienia
zmiennej X w danym przedziale:

P(E (X ) − σ(X ) < X < E (X ) + σ(X )) = 0.6827

P(E (X ) − 2σ(X ) < X < E (X ) + 2σ(X )) = 0.9545

P(E (X ) − 3σ(X ) < X < E (X ) + 3σ(X )) = 0.9973

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

41 / 78

background image

Rozkład normalny (Gaussa)

UWAGA:

Dowolna¸ zmienna¸ Y o rozkładzie normalnym można

standaryzować

tworza¸c wielkość Z o rozkładzie

standardowym normalnym N(0, 1)

:

Z = (Y − E (Y ))/σ(Y ).

Standaryzacja jest ważna ze wzgle¸du na możliwość
tablicowania zarówno funkcji ge¸stości prawdopodobieństwa,
jak i dystrybuanty rozkładu N(0, 1) a potem wykorzystania
faktu, że maja¸c zmienna¸ X o rozkładzie N(0, 1) możemy
stworzyć zmienna¸ Y o rozkładzie N(A, B) przez prosta¸
transformacje¸: Y = B ∗ X + A .

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

42 / 78

background image

Rozkład normalny (Gaussa)

Centralne Twierdzenie Graniczne

(intuicyjne sformułowanie)

Zmienna Z be¸da¸ca standaryzowana¸ suma¸ nieza-
leżnych zmiennych losowych bedzie miała standar-
dowy rozkład normalny gdy liczba składników w
sumie da¸ży do nieskończoności oraz w sumie nie
wyste¸puja¸ zmienne o wariancjach dominuja¸cych w
stosunku do reszty składników.

Właśnie to twierdzenie powoduje, że rozkład normalny jest
wyróżnionym rozkładem - bardzo cze¸sto stosowanym w
statystyce.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

43 / 78

background image

Podstawy rachunku błe

¸dów

Motto:

Wynik pomiaru bez podania dokładności doświad-
czenia

(podania

niepewności

pomiaru)

jest

bezwartościowy.

DEFINICJA:

Pomiarem bezpośrednim

nazywamy doświadczenie, w

którym przy pomocy odpowiednich przyrza¸dow mierzymy
(porównujemy z jednostka¸) interesuja¸ca¸ nas wielkość fizyczna¸.

Przykład:

Pomiar długości przedmiotu przy pomocy linijki

Pomiar długości odcinka czasu przy pomocy zegara

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

44 / 78

background image

Podstawy rachunku błe

¸dów

DEFINICJA:

Pomiarem pośrednim

nazywamy doświadczenie, w którym

wyznaczamy wartość interesuja¸cej nas wielkości fizycznej
przez pomiar innych wielkości fizycznych zwia¸zanych z dana¸
wielkościa¸ znanym zwia¸zkiem funkcyjnym.

Przykład:

Pomiar oporu elektrycznego przewodnika: mierzymy
spadek napie¸cia U na przewodniku i pra¸d I przez niego
płyna¸cy a opór R wyznaczamy z prawa Ohma:
R = U/I .

Pomiar ge¸stości stopu, z którego zbudowany jest
prostopadłościan: mierzymy bezpośrednio długość
krawe¸dzi a, b i c prostopadłościanu i jego mase¸ m a
ge¸stość wyznaczamy ze wzoru: ρ = m/(a · b · c).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

45 / 78

background image

Podstawy rachunku błe

¸dów

DEFINICJA:

Błe

¸dem pomiaru e

nazywano (tradycyjnie) różnice¸

pomie¸dzy wartościa¸ x uzyskana¸ w doświadczeniu a prawdziwa¸
(nieznana¸) wartościa¸ x

0

danej wielkości:

e = x − x

0

UWAGA:

Zgodnie z Międzynarodową Normą ISO określenie

błąd

zastępuje się określeniem

niepewność pomiarowa

.

Niepewność pomiaru wielkości x oznacza się u(x ) .

Podział niepewności pomiarowych:

Niepewności pomiarowe dzielimy na

grube

systematyczne

przypadkowe

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

46 / 78

background image

Podstawy rachunku błe

¸dów

DEFINICJA:

Niepewności grube

to takie, które pojawiaja¸ sie¸ w wyniku

pomyłki eksperymentatora (np. odczyt na niewłaściwej skali
przyrza¸du) lub w wyniku niesprawności aparatury pomiarowej.
Zwykle sa¸ one na tyle duże, że można je łatwo zauważyć.

Dla uniknie¸cia takich niepewności pomiarowych należy
starannie zorganizować proces pomiaru i używać do
doświadczeń tylko właściwie wytestowanych przyrza¸dów.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

47 / 78

background image

Podstawy rachunku błe

¸dów

DEFINICJA:

Niepewności systematyczne

to takie, które podczas

wykonywania pomiaru systematycznie przesuwaja¸ wyniki
pomiarów w jedna¸ strone¸ w stosunku do prawdziwej wartości.

Moga¸ mieć one różne przyczyny. Najcze¸ściej to:

Niewłaściwy sposób przeprowadzania pomiaru
(np.

Bła¸d paralaksy

)

Stosowanie złych przyrza¸dów
(np. waga szalkowa o różnej długości ramion)

Stosowanie nieprzemyślanej metody (patrz poniżej)

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

48 / 78

background image

Podstawy rachunku błe

¸dów

Przykład:

Przy pomiarze oporu możemy zastosować dwa różne
schematy podła¸czenia woltomierza i amperomierza:

 

 A 

 

Rysunek:

Schemat pierwszy: Woltomierz podła

¸czony równolegle

do opornika a szeregowo do nich amperomierz.

Systematycznie

zawyżamy wartość pra

¸du I a wie¸c zaniżamy opór.

 

 A 

 

Rysunek:

Schemat drugi: Woltomierz podła

¸czony równolegle do

układu szeregowo poła

¸czonych opornika i amperomierza.

Systematycznie zawyżamy wartość napie¸cia U a wie¸c zawyżamy
opór.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

49 / 78

background image

Podstawy rachunku błe

¸dów

Niepewności systematyczne sa¸ trudne do zauważenia i oszacowania.

Dla ich uniknie¸cia stosuje sie¸:

staranne przemyślenie metody pomiaru w poszukiwaniu możliwych

źródeł niepewności systematycznych i wybór metody, która nie jest
nimi obarczona, np. opór w powyższym przykładzie można mierzyć
metoda¸ mostka.

zmiane¸ metody pomiaru , aby wyeliminować ukryte, niekontrolowane

źródła niepewności systematycznych. Na przykład, ważne stałe
fizyczne takie jak pre¸dkość światła c były wielokrotnie mierzone
różnymi metodami, głównie po to aby upewnić sie¸, że uniknie¸to
niepewności systematycznych,

pomiary wzgle¸dne polegaja¸ce na tym, że mierzymy równocześnie, ta¸

sama¸ metoda¸ dwie wielkości - jedna¸ dobrze znana¸ a druga¸ - te¸, która¸
chcemy zmierzyć.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

50 / 78

background image

Podstawy rachunku błe

¸dów

DEFINICJA:

Niepewności przypadkowe

to takie, które zmieniaja¸ sie¸ od

pomiaru do pomiaru, powoduja¸c odchylenia od wartości
prawdziwej zarówno w dół jak i w górę.
Zakłada sie¸, że spowodowane sa¸ one przez wiele
niezależnych przyczyn o porównywalnym znaczeniu

.

Metody statystyki pozwalaja¸ na oszacowanie tego typu
efektów zarowno jakościowo jak i ilościowo. Nie mówia¸
jednak nic o niepewnościach systematycznych czy grubych.

Dlatego dalsze rozważania be

¸da

¸ dotyczyły

tylko niepewności przypadkowych

.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

51 / 78

background image

Podstawy rachunku błe

¸dów

Rozkład niepewności przypadkowych

Rozkład niepewności przypadkowej ”u”

to N(0, σ(u)) czyli

f(u) =

1

2π σ(u)

exp



−u

2

2

(

u)



bo gdy mamy do czynienia tylko z niepewnościami
przypadkowymi wówczas:

Sa¸ spełnione założenia centralnego twierdzenia
granicznego a wie¸c rozkład niepewności pomiarowych
jest rozkładem normalnym.

Wartość oczekiwana niepewności przypadkowej u znika
(z założenia równe prawdopodobieństwo odchylenia w
góre¸ i w dół w stosunku do prawdziwej wartości
mierzonej wielkości).

Miara¸ wielkości niepewności przypadkowej jest
odchylenie standardowe rozkładu niepewności: σ(u).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

52 / 78

background image

Podstawy rachunku błe

¸dów

Rozkład pomiarów obarczonych niepewnościami

przypadkowymi

Rozkład pomiarów:

Pomiary przeprowadzane w obecności jedynie

niepewności przypadkowych maja¸ rozkład N (x

0

, σ(u)) bo

wynik pomiaru x jest przesunie¸ty od prawdziwej wartości x

0

o

niepewność przypadkową u:

x = x

0

+ u

a transformacja rozkładu f (u) do g (x ) daje wzór:

g (x ) =

1

2π σ(u)

exp



−(x−x

0

)

2

2

(

u)



.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

53 / 78

background image

Podstawy rachunku błe

¸dów

Rozkład pomiarów obarczonych niepewnościami

przypadkowymi

WNIOSKI:

Z poniższych faktów wynika, że:

szukanie prawdziwej wartości mierzonej wielkości i
jej niepewności to estymacja wartości oczekiwanej
i odchylenia standardowego pomiarów

Wartość prawdziwa mierzonej wielkości jest równa

wartości oczekiwanej pomiarów (jeżeli sa¸ tylko
niepewności przypadkowe).

Rozrzut pomiarów dokoła wartości prawdziwej jest

określony przez odchylenie standardowe σ(u) rozkładu
niepewności przypadkowych.

Miara¸ niepewności pojedynczego pomiaru jest

odchylenie standardowe pomiarów.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

54 / 78

background image

Podstawy rachunku błe

¸dów

Estymator wartości oczekiwanej

Estymator E (x )

to średnia arytmetyczna niezależnych pomiarów wielkości

x

. Be¸dziemy ja¸ oznaczać przez x :

T

n

(E (x )) ≡ x =

1
n

P

n
i =1

x

i

Kołmogorow pokazał, że x spełnia mocne prawo
wielkich liczb

a wie¸c oczywiście jest zgodny,

Estymator x jest nieobcia

¸żony

.

E (

1
n

P

i

x

i

) =

1
n

P

i

E (x

i

) =

1
n

(n · E (x )) = E (x ) c.b.d.o.

Tu wykorzystano fakt, że wszystkie wartości oczekiwane sa

¸

sobie równe E (x

i

) = E (x ).

Można pokazać, że x jest najbardziej efektywnym
estymatorem E (x ).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

55 / 78

background image

Podstawy rachunku błe

¸dów

Estymator wartości oczekiwanej

TWIERDZENIE:

Estymator x wartości oczekiwanej E (x ) ma rozkład

normalny N



E (x ),

σ(

x )

n



gdzie n jest liczba¸ pomiarów w

próbie.

WNIOSKI:

Odchylenie standardowe średniej arytmetycznej x jest

n - krotnie mniejsze

od odchylenia standardowego

pojedynczego pomiaru.

Odchylenie standardowe σ(x ) czyli

niepewność

pomiarowa średniej arytmetycznej u(¯

x )

charakteryzuje dokładność wyznaczenia prawdziwej
wartości x w danym konkretnym pomiarze
składaja¸cym sie¸ z n niezależnych doświadczeń.

Aby opisać dokładność metody pomiarowej
podajemy

niepewność pomiarową pojedynczego

pomiaru

tj. u(x ) ≡ σ(x ) .

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

56 / 78

background image

Podstawy rachunku błe

¸dów

Estymator odchylenia standardowego

Estymator S(x):

S(x ) ≡

q

1

n−1

P

n
i =1

(x

i

− x)

2

Jest to

zgodny, asymptotycznie nieobcia¸żony

estymator.

ZALECA SIĘ STOSOWANIE TEGO ESTYMATORA

Estymator s(x):

s(x ) ≡

q

1
n

P

n
i =1

(x

i

− x)

2

Jest to

zgodny, asymptotycznie nieobcia¸żony i najbardziej

efektywny

estymator

Estymator S(x):

S(x ) ≡

q

n−1

2

Γ(

n

−1

2

)

Γ(

n
2

)

· S(x)

Jest to

zgodny i nieobcia¸żony

estymator

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

57 / 78

background image

Podstawy rachunku błe

¸dów

Estymator odchylenia standardowego

UWAGA:

Współczynnik k

n

o który różni sie¸ S(x ) od S(x ) jest

znacza¸co różny od 1.0

tylko dla małych prób

i może być w

przybliżeniu zasta¸piony przez wstawienie do wzoru na S(X )
zamiast 1/(n − 1) czynnika 1/(n − 1.45).

n

k

n

q

n−1

n−1.45

3

1.1284

1.1359

4

1.0853

1.0847

5

1.0640

1.0615

6

1.0506

1.0482

7

1.0423

1.0397

10

1.0280

1.0260

15

1.0181

1.0165

20

1.0134

1.0121

25

1.0104

1.0095

50

1.0051

1.0046

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

58 / 78

background image

Podstawy rachunku błe

¸dów

Zapis wyników pomiarów

KONWENCJA:

Stosuje sie¸ naste¸puja¸ca¸

konwencje

¸ zapisu wyników

,

gdzie jako miarę niepewności pomiaru podaje się

niepewność

standardową u(x ) ≡ S(¯

x )

.

Pozostawia sie¸ tylko

dwie cyfry znacza

¸ce

standardowej niepewności pomiarowej, np. 0,023.

Wynik pomiaru obliczamy tak aby wyznaczyć jedno
miejsce dziesie¸tne dalej niż miejsce dziesie¸tne, na
którym zaokra¸glono niepewność pomiarową, a
naste¸pnie zaokra¸glamy do tego samego miejsca
dziesie¸tnego, do którego wyznaczono niepewność
pomiarową, np. zamiast 1,9024 bierzemy 1,902.

Wynik wraz z niepewnością pomiarową podajemy w
ten sposób, że

po wypisaniu wyniku dopisujemy

w nawiasie dwie cyfry znaczące reprezentujące
niepewność pomiaru i podajemy jednostkę

, np.

m = 1,902(23) kg

lub

m = 1,902(0,023) kg

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

59 / 78

background image

Podstawy rachunku błe

¸dów

Zapis wyników pomiarów

KONWENCJA (c.d.):

Stosuje się również zapis:

x = (wynik(x ) ± U(x )) jednostka(x )

, gdzie

U(x ) ≡ k · u(x )

tzw.

niepewność rozszerzona

.

”k” przyjmuje wartości 2 ≤ k ≤ 3 przy czym

domyślnie, tzn. jeżeli nie podaje się tego jawnie,

przyjmuje się k = 2.

UWAGA: ten zapis jest identyczny jak zapis stosowany
dawniej (przed przyjęciem nowej konwencji zapisu) ale
wtedy podawało się

standardową niepewność u(x )

zamiast

rozszerzonej niepewności U(x ) ≡ k · u(x )

.

Zapis przykładowy przytaczanego powyżej wyniku:

masa = (1,902

± 0.046) kg

.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

60 / 78

background image

Podstawy rachunku błe

¸dów

Zapis wyników pomiarów

UWAGA:

Zastosowanie konwencji, w której zapisujemy wynik i jego
niepewność w formie: (wynik ± niepewność pomiaru)
może prowadzić do nieporozumienia, gdy nie napiszemy
wyraźnie, że stosujemy nową konwencję i że jako

współczynnik rozszerzenia niepewności

bierzemy

k = 2

.

Zaleca się więc stosowanie zapisu, w którym podaje się

w nawiasie 2 cyfry znaczące standardowej niepewności

pomiarowej. W przeciwnym wypadku należy wyraźnie

zaznaczyć, że podajemy rozszerzoną niepewność

standardową oraz wypisać wartość k.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

61 / 78

background image

Podstawy rachunku błe

¸dów

Zapis wyników pomiarów

UWAGA:

Ponieważ omawiana metoda szacowania niepewności opiera
się o statystyczny rozrzut pomiarów rządzony rozkładem
Gaussa, to

Niepewność standardowa

pomiaru określa przedział

wartości mierzonej wielkości gdzie z

prawdopodobieństwem ≈ 0.68 znajduje się prawdziwa

wartość mierzonej wielkości.

Rozszerzona niepewność z czynnikiem rozszerzenia
k=2

określa przedział, gdzie z

prawdopodobieństwem ≈ 0.95 znajduje się prawdziwa

wartość.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

62 / 78

background image

Podstawy rachunku błe

¸dów

Zapis wyników pomiarów

Metoda A

szacowania niepewności pomiarowych to wg normy ISO
opisane powyżej wnioskowanie o niepewności pomiaru

z rozrzutu statystycznego wyników pomiaru

Metoda B

stosuje się, gdy nie możemy takiego rozrzutu zaobserwować ,
np. gdy

Działka skali przyrządu pomiarowego jest większa od
obserwowanego rozrzutu,

Pomiar można wykonać tylko jednokrotnie bo, np.
towarzyszy mu zniszczenie badanego obiektu,

itp.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

63 / 78

background image

Podstawy rachunku błe

¸dów

Zapis wyników pomiarów

W metodzie B:

Szukamy takiego przedziału [a, b] wartości mierzonej
wielkości x , że wszystkie wartości x ∈ [a, b] (np.
długość [a, b] to wielkość działki skali przyrządu).

Zakładamy funkcję gęstości prawdopodobieństwa
zmiennej x ; najczęściej zakłada się jednostajny rozkład:
f (x ) = 1/(b − a).

Odchylenie standardowe tej wielkości bierzemy jako
wartość niepewności standardowej, np. dla rozkładu
jednostajnego

u(x ) ≡ σ(x ) = (b − a)/(2

3).

UWAGA:

Ponieważ (b − a)/2 ≡ ∆x , gdzie ∆x to (tradycyjnie) tzw.

błąd maksymalny

więc wtedy

standardowa niepewność

u(x ) = ∆x /

3.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

64 / 78

background image

Rozkład liczby pozytywnie zakończonych doświadczeń

TWIERDZENIE:

Jeżeli prawdopodobieństwo zrealizowania sie¸ danego

zdarzenia losowego w pojedynczym doświadczeniu jest
równe p to liczba k zrealizowanych zdarzeń w N
niezależnych

doświadczeniach rza¸dzona jest

rozkładem

Bernoulliego

(dwumianowym, binomialnym):

P(k) =

N!

k!(N−k)!

p

k

(1 − p)

N−k

; k = 0, 1, ..N

Łatwo można pokazać, że

E (k) = N · p
σ(k) =

pN · p · (1 − p)

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

65 / 78

background image

Rozkład liczby pozytywnie zakończonych doświadczeń

Graniczny przypadek:

cze¸sto realizowany w fizyce atomowej, ja¸der

atomowych i cza¸stek elementarnych to sytuacja gdy N jest

bardzo duże

, p

bardzo małe

a wartość oczekiwana

rejestrowanych zdarzeń E (k) ≡ N · p jest

stała

.

Przykład:

N

- liczba radioaktywnych ja¸der w badanej próbce,

p

- prawdopodobieństwo rozpadu pojedynczego

radioaktywnego ja¸dra w jednostce czasu,

k

- liczba rejestrowanych rozpadów w jednostce czasu

Rozkład Poissona

jest wtedy graniczna¸ postacia¸ rozkładu Bernoulliego:

P(k) =

λ

k

k!

exp(−λ)

Wartość oczekiwana i odchylenie standardowe wyrażaja¸ sie¸
wzorem:

E (k) = λ
σ(k) =

λ

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

66 / 78

background image

Rozkład liczby pozytywnie zakończonych doświadczeń

Niepewność statystyczna

Liczba rejestrowanych w danym okresie czasu zdarzeń k rza¸dzonych
powyższymi prawami jest zmienna¸ losowa¸ a wie¸c ”prawdziwa” liczba
zdarzeń to E(k)

a jej ”niepewność” to σ(k). Nazywana jest ona

niepewnością statystyczną

(tradycyjnie ”błędem statystycznym”).

ESTYMATOR prawdziwej liczby zdarzeń

to liczba k zarejestrowanych

zdarzeń podczas pojedynczego pomiaru:

T

n

(E (k)) = k

ESTYMATOR niepewności statystycznej:

to

u(k) ≡ T

n

(σ(k)) =

k

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

67 / 78

background image

Rozkład liczby pozytywnie zakończonych doświadczeń

Niepewność statystyczna

POZORNY PARADOKS:

Im dłużej mierzymy tym niepewność liczby

zarejestrowanych zdarzeń jest wie¸ksza.

WYTŁUMACZENIE:

Istotna jest statystyczna niepewność

wzgle¸dna

u

r

(k) a nie bezwzgle¸dna u(k):

u

r

(k) ≡ u(k)/k =

1

k

NOMENKLATURA:

Pomiar z małą wzgle¸dną niepewnością statystyczną

to pomiar z

dobra

¸ statystyka

¸

a z dużą wzgle¸dną

niepewnością statystyczną to pomiar ze

zła

¸ statystyka

¸

.

UWAGA:

Należy zwracać uwage¸, że

niepewność statystyczna ma

identyczny wymiar jak liczba zdarzeń, tj. wymiar
odwrotny do czasu

mimo, że ilościowo jest pierwiastkiem z

liczby zdarzeń.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

68 / 78

background image

Rozkład liczby pozytywnie zakończonych doświadczeń

Niepewność statystyczna

W praktyce interesuje nas obok odpowiedzi na pytanie:

Ile zdarzeń zachodzi w określonym czasie ?

również odpowiedź na pytanie:

Ile zachodzi zdarzeń DANEGO TYPU ?

PRZYKŁAD:

Rejestrujemy produkty reakcji ja¸drowej. Chcemy wiedzieć

nie tylko ile reakcji zachodzi ale także ile jest produktów
posiadaja¸cych określona¸ energie¸.

PYTANIA:

1

Jakim rozkładem rza¸dzona jest liczba zdarzeń w każdym
przedziale (’kanale’) energii?

2

Co by sie¸ stało gdybyśmy dodali liczby zdarzeń z kilku
sa¸siednich kanałów (dla poprawienia ’statystyki’ liczby
zdarzeń) ?

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

69 / 78

background image

Rozkład liczby pozytywnie zakończonych doświadczeń

Niepewność statystyczna

Korzystamy z twierdzenia:

TWIERDZENIE:

Rozkład prawdopodobieństwa sumy skończonej liczby

niezależnych składników, z których każdy rza¸dzony jest
rozkładem Poissona o parametrze λ

i

jest również rozkładem

Poissona ale o nowym parametrze

λ =

P

i

λ

i

.

ODPOWIEDŹ na 1 pytanie:

Liczba zdarzeń w każdym kanale jest rza¸dzona

rozkładem Poissona ale każdy z tych rozkładów ma zwykle
różny parametr λ

i

.

ODPOWIEDŹ na 2 pytanie:

Liczba zdarzeń w kilku wysumowanych

kanałach k =

P

i

k

i

be¸dzie rza¸dzona rozkładem Poissona z

parametrem λ, którego estymator jest równy

T

n

(λ ≡ E (k)) =

P

i

k

i

.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

70 / 78

background image

Pomiary pośrednie

DEFINICJA:

Jeżeli w doświadczeniu mierzymy wielkości X

1

, X

2

, .., X

N

a

naste¸pnie wyliczamy wartość funkcji Y = Y(X

1

, X

2

, .., X

N

)

to taka¸ procedure¸ nazywamy

pomiarem pośrednim

.

ESTYMATOR:

Estymatorem E(Y) pomiaru pośredniego

jest wartość

funkcji Y wyliczona dla argumentów, które sa¸ estymatorami
prawdziwych wartości X

1

, X

2

, ..X

N

tzn. dla średnich

arytmetycznych X

1

, X

2

, ..., X

N

:

T

n

(E (Y (X

1

, X

2

, ..X

N

))) = Y (X

1

, X

2

, ..., X

N

)

lub inaczej

E (Y (X

1

, X

2

, ..X

N

)) ≈ Y (X

1

, X

2

, ..., X

N

)

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

71 / 78

background image

Pomiary pośrednie

Niepewność pomiaru pośredniego

ESTYMATOR:

niepewności pomiaru pośredniego, tzw.

złożona

niepewność standardowa

(tradycyjnie:

bła¸d średni

kwadratowy

) liczy sie¸ naste¸puja¸co (UWAGA: wzory są

słuszne przy założeniu, że pomiary X

1

, X

2

, .., X

N

były

wykonywane niezależnie odpowiednio n

1

, n

2

, .., n

N

razy):

σ(Y ) ≈

s

N

P

i =1



Y

X

i



2

X

i

=

X

i

· σ

2

(X

i

)

UWAGA:

X

1

, X

2

, ..X

N

to różne wielkości a nie kolejne pomiary

wielkości "X ",

Pochodne liczone wzgle¸dem ’X

i

’ to pochodne

cza¸stkowe tzn. liczone przy założeniu, że pozostałe

zmienne ’X

j 6=i

’ sa¸ ustalone,

Zamiast wariancji zmiennej σ

2

(X

i

) używa sie¸ jej

estymatora tzn. S

2

(X

i

) (n

i

- krotnie mniejszego od

estymatora S

2

(X

i

)).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

72 / 78

background image

Pomiary pośrednie

Błąd maksymalny

Bła¸d maksymalny pomiaru pośredniego

to tradycyjne pojęcie, które

stosowano, gdy nie można było oszacować niepewności
pomiaru bezpośredniego z rozrzutu wyników. Liczono go wg
poniższego wzoru, tzn.

metoda

¸ różniczki zupełnej

.

∆(Y ) ≈

N

P

i =1

|

Y

X

i

| · ∆(X

i

)

Tu moduły pochodnych sa¸ wyliczane dla jednokrotnie
zmierzonych wielkości X

i

a symbol ∆(X

i

) oznacza

maksymalny bła¸d tej wielkości mierzonej bezpośrednio.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

73 / 78

background image

Pomiary pośrednie

Błąd maksymalny

Zgodnie z nową NORMĄ:

Nie należy używać pojęcia błędu maksymalnego lecz liczyć

niepewność pomiaru pośredniego jako

złożoną niepewność

pomiarową

wstawiając zamiast niepewności pomiarów

bezpośrednich otrzymanych "metodą A"(tzn. z rozrzutu
pomiarów) niepewności oszacowane "metodą B".

Należy tak postępować bo:

W odróżnieniu od złożonej niepewności standardowej

bła¸d maksymalny nie ma interpretacji statystycznej

.

Łatwo można pokazać , że błąd maksymalny obliczony
metoda¸ różniczki zupełnej

jest zawsze wie¸kszy od

złożonej niepewności standardowej.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

74 / 78

background image

Pomiary pośrednie

Regresja liniowa

DEFINICJA:

Regresja liniowa zmiennej Y wzgle

¸dem zmiennej X

to

linia prosta Y = a · X + b z parametrami a i b dobranymi
tak aby minimalizować sume¸ kwadratów odchyleń
współrze¸dnych (y

i

, i = 1, 2, ..n) zespołu n punktów o

współrze¸dnych (x

1

, y

1

),(x

2

, y

2

),... (x

n

, y

n

) od tej linii:

Q

2

=

n

P

i =1

(y

i

− a · x

i

− b)

2

Zmienna Y nazywana jest

zmienna

¸ objaśniana

¸

a

zmienna X

zmienna

¸ objaśniaja

¸ca

¸

.

UWAGA:

Regresja liniowa X wzgle¸dem Y tj. prosta X = c · Y + d
pokrywa sie¸ z regresja¸ liniowa¸ Y wzgle¸dem X tj. prosta¸
Y = a · X + b znaleziona¸ dla tego samego zespołu punktów
doświadczalnych tylko wtedy gdy zwia¸zek pomie¸dzy X i Y
jest funkcyjnym zwia¸zkiem liniowym (a nie zależnościa¸
statystyczna¸).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

75 / 78

background image

Pomiary pośrednie

Regresja liniowa

Specyficzna sytuacja:

polegaja¸ca¸ na tym, że:

zmienna objaśniaja¸ca X ma

zaniedbywalnie małe

niepewności

traktowana jako nielosowa zmienna.

zmienna objaśniana Y jest zmienna¸ losowa¸ o

identycznej

niepewności standardowej σ(Y ) dla wszystkich punktów.

Wtedy dostajemy proste, analityczne wzory na estymatory
parametrów regresji

:

T

n

(b)

=

(

P

i

x

i

2

) · (

P

i

y

i

) − (

P

i

x

i

) · (

P

i

x

i

· y

i

)

W

T

n

(a)

=

n

· (

P

i

x

i

· y

i

) − (

P

i

x

i

) · (

P

i

y

i

)

W

W

≡ n ·

X

i

x

2

i

− (

X

i

x

i

)

2

Wskaźnik sumowania i przebiega wartości od 1 do n.

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

76 / 78

background image

Pomiary pośrednie

Regresja liniowa

Niepewności standardowe estymatorów parametrów a i b

również wyrażaja¸

sie¸ analitycznymi wzorami:

T

n

(σ(b))

=

σ(Y ) ·

s

P

i

x

2

i

W

T

n

(σ(a))

=

σ(Y ) ·

r n

W

Niepewność standardowa wartości Y przewidzianej przez linie¸ regresji

(zależna od x):

T

n

(σ(Y (x )))

=

σ(Y ) ·

s

1

n

+

(x − x )

2

P

i

(x

i

− x)

2

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

77 / 78

background image

Pomiary pośrednie

Regresja liniowa

UWAGA:

W praktyce opuszcza sie¸ symbol estymatora, zarówno dla
parametrów regresji a, b jak i dla wartości Y przewidzianej
przez regresje¸, tzn. zamiast T

n

(a) pisze sie¸ po prostu a, itd.

ale należy pamie¸tać, że sa¸ to estymatory. W powyższych
wzorach zastosowano naste¸puja¸ce oznaczenia:

T

n

(σ(Y (x )))

to estymator niepewności wartości Y (x )

przewidzianej przez regresje¸,

σ(Y )

to niepewność pomiarowa współrze¸dnej Y

i

z

założenia taka sama dla wszystkich punktów,

x

to średnia arytmetyczna wartości zmiennej

kontrolowanej wyliczona ze współrze¸dnych punktów
x

1

, x

2

, ...x

n

,

x

- to wartość zmiennej kontrolowanej X , dla której

wyliczamy wartość regresji liniowej Y (x ) i estymator
niepewności regresji liniowej T

n

(σ(Y (x ))).

B. Kamys

(Instytut Fizyki UJ)

SMOP I

2007/08

78 / 78


Document Outline