background image

Rachunek prawdopodobieństwa i statystyka matematyczna

 

 
 

1.  Definicja prawdopodobieństwa (aksjomatyczna). 
2.  Własności dystrybuanty. 

3.  Sprawdzić,    czy  funkcja 

)

2

1

)

(

(

1

)

(

x

arctg

x

F

  może  być  dystrybuantą  rozkładu 

prawdopodobieństwa. 

 

4.  Definicja prawdopodobieństwa warunkowego. 
5.  Udowodnić, że 

0

)

(

P

6.  Udowodnić, że 

)

(

1

)

(

A

P

A

P

 

7.  Udowodnić, że dla dowolnych dwóch zdarzeń 

)

(

)

(

)

(

)

(

B

A

P

B

P

A

P

B

A

P

8.  Udowodnić, że: jeśli 

  

,

B

A

to 

)

(

)

(

B

P

A

P

9.  Sformułować i udowodnić twierdzenie o prawdopodobieństwie zupełnym. 
10. Sformułować i udowodnić twierdzenie Bayesa. 
11. Definicja zmiennej losowej . 
12. Udowodnić, że 

)

(

)

(

)

(

a

X

P

b

X

P

b

X

a

P

13. Rozkład Bernoulliego 
14. Rozkład Poissona 
15. Rozkład normalny 
16.Napisać funkcję gęstości zmiennej losowej o rozkładzie normalnym z wartością          oczekiwaną 5 i 
odchyleniem standardowym 7. 
17.  Podać  wartość  oczekiwaną,  wariancję,  wartość  modalną  i  medianę  zmiennej  losowej,        której 

funkcja gęstości wyraża się wzorem    

8

2

5

2

2

1

)

x

(

e

)

x

(

f

 

18. Parametry zmiennych losowych (średnia, wariancja, odchylenie standardowe, mediana      i 
wartość modalna). 
19. Udowodnić, że jeśli zmienna losowa X ma wartość oczekiwaną m i odchylenie standardowe 

, to 

zmienna losowa 

m

X

Y

 ma wartość oczekiwaną zero i odchylenie standardowe 1. 

20. Udowodnić,  że  jeśli  zmienna  losowa  X  ma  wartość  oczekiwaną  7  i  odchylenie  standardowe  2,  to 

zmienna losowa 

2

7

X

Y

 ma wartość oczekiwaną zero i odchylenie standardowe 1. 

 
21. Twierdzenie Poissona (dowód) 
22. Zmienne losowe typu skokowego. Rozkład zmiennej losowej typu skokowego. 
23. Zmienne losowe typu ciągłego. Rozkład zmiennej losowej typu ciągłego. 
24. Twierdzenie Linderberga-Levy’ego 
25. Określenie populacji i próby 
26. Definicja i własności estymatorów punktowych. 
27. Wyprowadzić wzór na estymator wartości oczekiwanej. 
28. Udowodnić, że średnia arytmetyczna jest nieobciążonym estymatorem wartości oczekiwanej. 

29. Udowodnić, że 

n

)

x

(

D

2

2

 

30. Wyprowadzić wzór na przedział ufności dla wartości oczekiwanej na podstawie próby z populacji o 

rozkładzie normalnym ze znanym odchyleniem standardowym. 

 
 

 

background image

1.  Definicja prawdopodobieństwa (aksjomatyczna) 

 
Prawdopodobieństwem nazywamy funkcję, która każdemu zdarzeniu A ⊂  Ω przyporządkowuje liczbę 
P(A) tak, aby spełnione były warunki: 

1.  P(A) ≥ 0 dla każdego A∈K 
2.  P(Ω) = 1 
3.  Jeśli A ∩ B = ϕ, to P(A∪B) = P(A) + P(B) 
 

zdarzenie elementarne - najprostszy wynik doświadczenia losowego, tzn. zdarzenie losowe, którego nie 
da się rozłożyć na zdarzenia prostsze. 
Ω - zbiór zdarzeń elementarnych 
K – zbiór zdarzeń: σ- ciało na zbiorze Ω 
σ- ciało - Przestrzeń mierzalna – zbiór z określoną rodziną jego do której należy zbiór 
pusty oraz dopełnienia wszystkich jej elementów, a ponadto należy do niej suma dowolnej przeliczalnej 
rodziny jej elementów. 
 
 
 

2.  Własności dystrybuanty 

 
Dystrybuantą nazywany funkcję F która spełnia 3 warunki: 

1.  F jest funkcją niemalejącą 
2.  lim

x→−∞

F(x) = 0    lim

x→∞

F(x) = 1 

3.  F jest funkcją lewostronnie ciągłą (granica funkcji w punkcie = punktowi:  lim

x→x

0

F(x) = F(x

0

) ) 

Dystrybuanta – w rachunku prawdopodobieństwa, statystyce i dziedzinach pokrewnych, funkcja 
rzeczywista jednoznacznie wyznaczająca rozkład prawdopodobieństwa. 
 
 

3.  Sprawdzić,  czy funkcja 

)

2

1

)

(

(

1

)

(

x

arctg

x

F

 może być dystrybuantą rozkładu 

prawdopodobieństwa. 

 

)

2

1

)

(

(

1

)

(

x

arctg

x

F

 

 
1

F’(x) = 

1

π

∗ 

1

1+x

2

  - dla każdego xϵR  F’(x)>0, więc funkcja jest rosnąca. 

 

2:  lim

x→−∞

)

2

1

)

(

(

1

x

arctg

=  

1

π

 (−

π

2

+

π

2

) = 𝟎  

(przy tym pytaniu trzeba wiedzieć skąd się wzięło 

π

 /2 i –

 π

 /2 w limesie)

 

     lim

x→∞

)

2

1

)

(

(

1

x

arctg

=  

1

π

 (

π

2

+

π

2

) = 𝟏  

 
3: z analizy funkcja arctg jest ciągła, więc jest też lewostronnie ciągła 
 
 
 
 
 

background image

 
 
 

4.  Definicja prawdopodobieństwa warunkowego. 

 

Jeśli P(B)>0, to P(A/B) =

P(A∩B)

 P(B)

 

1.  P(A ∩ B) ≥ 0,   P(B) > 0 → P(A B

⁄ ) ≥ 0 

2.  P(Ω B

⁄ ) =

P(Ω∩B)

P(B)

=

P(B)
P(B)

= 1 

3.  A

1

,A

2

,…       A

i

∩A

j

= ∅   

  

   i ≠ j

  

P((A

1

, A

2

, … ) B

⁄ ) =

P((A

1

∪ A

2

∪ … ) ∩ B)

P(B)

=

P(A

1

∩ B) ∪ P(A

2

∩ B) ∪ …

P(B)

=

P(A

1

∩ B)

P(B)

+

P(A

2

∩ B)

P(B)

+ ⋯ = P(A

1

B

⁄ ) + P(A

2

B

⁄ ) + ⋯ 

Jeżeli P(A/B) = P(A) to o zdarzeniach A i B mówimy, że są niezależne. 

 

5. Udowodnić, że P(ϕ) =  0. 

 
P(ϕ) = 0  

ϕ = ϕ ∪ ϕ ∪ ϕ ∪ ϕ ∪ ϕ ∪ … 

P(ϕ) = P(ϕ ∪ ϕ ∪ … ) , ponieważ zdarzenia niemożliwe ϕ są rozłączne (wzajemnie się wykluczają): 

P(ϕ) =  P(ϕ) + P(ϕ) + P(ϕ) + ⋯ 

P(ϕ) = 0  

 
6.Udowodnić, że 

)

(

1

)

(

A

P

A

P

 

 

)

(

1

)

(

A

P

A

P

 

A ∪ A

̅ =  Ω 

P(A ∪ A 

̅ ) =  Ω               A ∩ A̅ =  ∅ 

P(A 

̅ ) + P(A) = 1 

)

(

1

)

(

A

P

A

P

 c.n.d. 

7.Udowodnić, że dla dowolnych dwóch zdarzeń 

)

(

)

(

)

(

)

(

B

A

P

B

P

A

P

B

A

P

 

P(A ∪ B) = P(A) + P(B) − P(A ∩ B) 
A ∪ B = B  ∪ (A − B) = B ∪ (A ∩ B

A = (A ∩ B) ∪ (A − B) = (A ∩ B) ∪ (A ∩ B

P(A ∪ B) = P(B ∪ (A ∩ B

)) 

P(A) = P((A ∩ B) ∪ (A ∩ B

)) 

B i A∩B’ oraz (A ∩ B) i (A ∩ B

) wzajemnie się wykluczają, więc: 

P(A ∪ B) = P(B) + P(A ∩ B

P(A) = P(A ∩ B) + P(A ∩ B

P(A ∩ B

) = P(A) − P(A ∩ B) 

background image

P(A ∪ B) = P(A) + P(B) − P(A ∩ B)   c.n.d.  

8.Udowodnić, że: jeśli 

  

,

B

A

to 

)

(

)

(

B

P

A

P

 

Tw. 

  

B

A

 

)

(

)

(

B

P

A

P

 

B = A  ∪ (B − A) = A  ∪ (B ∪ A

P(B) = P(A ∪ (B ∩ A

)) = P(A) + P(B ∩ A

)   ≥ P(A)   c.n.d.  

 

9.Sformułować i udowodnić twierdzenie o prawdopodobieństwie zupełnym 

Tw. Jeśli zdarzenia A

1

, A

2

,… tworzą układ zupełny zdarzeń, oraz P(Ai)>0 (i=1,2,3…),  

to dla dowolnego zdarzenia B zachodzi równość: 
P(B) = P(A

1

)P(B A

1

⁄ ) + P(A

2

)P(B A

2

⁄ ) + ⋯ 

 
Wyjaśnienie – tworzą układ zupełny zdarzeń, tzn. 
A

1

∪ A

2

∪ A

3

∪ … = Ω                A

i

∩ A

j

= ∅ dla i ≠ j 

 
Dowód: 
A

1

, A

2, 

A

– układ zupełny zdarzeń,   P(Ai)>0 

P(B) = P(B ∩ Ω) = P(B) ∩ (A

1

∪ A

2

∪ A

3

∪ … ) = P((B ∩ A

1

) ∪ (B ∩ A

2

) ∪ (B ∩ A

3

))

= P(B ∩ A

1

) + P(B ∩ A

2

) + ⋯ =  P(A

1

)P(B A

1

⁄ ) + P(A

1

)P(B A

1

⁄ ) + ⋯ 

Ostatnie przejście na mocy definicji prawdopodobieństwa warunkowego:  

 P(A/B) =

P(A∩B)

 P(B)

, więc P(A ∩ B) = P(B)P(A B

⁄ ) 

 
 
10. Sformułować i udowodnić twierdzenie Bayesa 

Jeśli zdarzenia A

1

, A

2

, A

3

… tworzą układ zupełny zdarzeń (A

1

∪ A

2

∪ A

3

∪ … = Ω ; A

i

∩ A

j

= ∅ dla i ≠ j) 

oraz P(A

i

)>0 (i=1,2,3…), i mamy zdarzenie B, takie że P(B)>0, to dla każdego zdarzenia A

j

 (j=1,2,3…) 

zachodzi równość zwana wzorem Bayesa: 

P(A

j

B

⁄ ) =

P(A

j

)P(B A

j

⁄ )

P(B)

 

Dowód: 
P(B ∩ A

j

) = P(A

j

) P(B /A

j

) z tw. o prawdopodobieństwie warunkowym 

P(B ∩ A

j

) = P(B) P(A

j

/ B) 

P(A

j

) P(B /A

j

) = P(B) P(A

j

/ B) 

P(A

j

/ B) = 

 

P(A

j

)P(B A

j

⁄ )

P(B)

  

c.n.d. 

 
 
 
 
 
 

background image

 
11.Definicja zmiennej losowej 

Niech (Ω, K, P) będzie przestrzenia probabilistyczną. 

Zmienną losową nazywamy każda funkcje 

ξ

 określoną na przestrzeni zdarzeń elementarnych, przyjmująca 

wartości rzeczywiste, taka, ze dla każdej liczby rzeczywistej x zbiór zdarzeń elementarnych ω 
spełniających warunek ξ (ω) < x jest zdarzeniem losowym, tzn. należy do rodziny K. 
 

Tzn. 

ξ: Ω → ℝ 

 nazywamy zmienną losowa, jeżeli: 

⋀{ω ∈ Ω: ξ(ω) < x} ∈ K

x∈R

 

 
K – zbiór zdarzeń: σ- ciało na zbiorze Ω 
σ- ciało - Przestrzeń mierzalna – zbiór z określoną rodziną jego do której należy zbiór 
pusty oraz dopełnienia wszystkich jej elementów, a ponadto należy do niej suma dowolnej przeliczalnej 
rodziny jej elementów. 
 
 
12.Udowodnić, że 

)

(

)

(

)

(

a

X

P

b

X

P

b

X

a

P

 

Przyjmijmy, że A: X<a        B: a ≤ X < b        C:  X<b 

(A∪B) = C 
P(A∪B) = P(C)  
A∩B = ∅, więc P(A) + P(B) = P(C) 
P(B) = P(C) - P(A) c.n.d. 
 
13.Rozkład Bernoulliego 

Rozkład Bernoulliego (dwumianowy) to dyskretny (ze zbioru przeliczalnego) rozkład prawdopodobieństwa 
opisujący liczbę sukcesów k w ciągu n niezależnych prób, z których każda ma stałe prawdopodobieństwo 
sukcesu równe p. Pojedynczy eksperyment nosi nazwę próby Bernoulliego. 

ξ       

k=0,1,2,3,…,n 

Jeżeli: 

P(ξ = k) = (

n
k

) p

k

(1 − p)

n−k

 

To mówimy, że zmienna losowa ξ ma rozkład Bernoulliego. 
m=n*p                 σ

2

=np-(1-p) 

 
14.Rozkład Poissona 

Rozkład Poissona jest dyskretnym rozkładem prawdopodobieństwa, wyrażającym prawdopodobieństwo 
szeregu wydarzeń mających miejsce w określonym czasie, gdy te wydarzenia występują ze znaną średnią 
częstotliwością i w sposób niezależny od czasu jaki upłynął od ostatniego zajścia takiego zdarzenia. 

Zmienna losowa ma rozkład Poissona jeśli zmienna ξ przyjmuje wartości k=0,1,2,3,... i ich 
prawdopodobieństwo wynosi 

P(ξ = k) =  

λ

k

k!

e

−λ

                                                                         m=

 λ

 

background image

λ ≡ const. > 0; λ – oczekiwana liczba zdarzeń w danym przedziale czasu; 
15.Rozkład normalny 

O zmiennej losowej ciągłej powiemy, że posiada rozkład normalny, jeżeli funkcja gęstości f(x) tego 
rozkładu ma postać:  

f(x) =

1

σ√2π

e

−(x−m)

2

2

 

Fakt, że zmienna losowa ξ ma rozkład normalny z wartością oczekiwaną m i wariancją σ

2

 zapisuje się 

często ξ ~ N(m, σ). 
Jeśli m = 0 i σ = 1, to rozkład ten nazywa się standardowym rozkładem normalnym. 
Dystrybuanta: 

F(x) =

1

σ√2π

∫  e

−(x−m)

2

2

x

−∞

 

 

16.Napisać funkcję gęstości zmiennej losowej o rozkładzie normalnym z wartością oczekiwaną 5 i 
odchyleniem standardowym 7 

N(5,7) -> m=5, σ = 7 

f(x) =

1

σ√2π

e

−(x−m)

2

2

 

f(x) =

1

7√2π

e

−(x−5)2

2∗72

 = 

1

7√2π

e

−(x−5)2

98

 

 
 

17.Podać wartość oczekiwaną, wariancję, wartość modalną i medianę zmiennej losowej, której funkcja 

gęstości wyraża się wzorem    

8

2

5

2

2

1

)

x

(

e

)

x

(

f

 

m=5, σ = 2 -> N(5,2) 
Wartość oczekiwana: 5 
Mediana: 5 
Wartość modalna: 5 
Wariancja: 2

2

=4 

 

 

 

 

 

 

background image

 

18.Parametry zmiennych losowych (średnia, wariancja, odch. standardowe, mediana i wartość 
modalna) 

Wariancja: Niech  (Ω, K, P) będzie przestrzenią probabilistyczną, zaś 

 - zmienną losową, 

posiadającą skończoną wartość oczekiwaną m = E(X). Wariancją zmiennej losowej X nazywamy liczbę: 

 

 
Mediana: P(ξ ≤ x) ≤

1
2

< P(ξ ≥ x) 

 
Dla zmiennej typu ciągłego: 

Średnia (wartość oczekiwana) 

m = ∫ xf(x)dx

−∞

 

Wariancja 

σ

2

= ∫(x − m)

2

f(x)dx

−∞

 

Odchylenie standardowe 

σ = √ ∫(x − m)

2

f(x)dx

−∞

 

Mediana 
Funkcja gęstości przyjmuje wartość 

1
2

 

Wartość modalna 
Max dla funkcji gęstości. 
 

Dla zmiennej losowej typu skokowego 

Średnia (wartość oczekiwana) 
m = ∑ x

i

p

i

i

 

Wariancja 
σ

2

= ∑(x − m)

2

p

i

i

 

Odchylenie standardowe 

σ = √∑(x − m)

2

p

i

i

 

Mediana 
Środkowy element, w posortowanym ciągu x. 

background image

Wartość modalna 
Taki x, dla którego prawdopodobieństwo p jest największe. 
 
19.Udowodnić,  że  jeśli  zmienna  losowa  X  ma  wartość  oczekiwaną  m  i  odchylenie  standardowe 

,  to 

zmienna losowa 

m

X

Y

 ma wartość oczekiwaną zero i odchylenie standardowe 1. 

Y =

X−m

σ

          

E(x)=m          D

2

(x)=

 σ

2

 

E(Y) = E (

X−m

σ

) =

1

σ

E(X − m) =

1

σ

(E(x) − m) =

1

σ

(m − m) = 0   

D

2

(Y) = D

2

(

X−m

σ

) =

1

σ

2

D

2

(X − m) =

1

σ

2

D

2

(X) =

1

σ

2

σ

2

= 1  

 

20.Udowodnić, że jeśli zmienna losowa X ma wartość oczekiwaną 7 i odchylenie standardowe 2, to 

zmienna losowa 

2

7

X

Y

 ma wartość oczekiwaną zero i odchylenie standardowe 1. 

Y =

X−7

2

          

E(x)=7          D

2

(x)=

 4 

E(Y) = E (

X−7

2

) =

1
2

E(X − 7) =

1
2

(E(x) − 7) =

1
2

(7 − 7) = 0   

D

2

(Y) = D

2

(

X−7

2

) =

1

2

2

D

2

(X − 7) =

1

2

2

D

2

(X) =

1
4

∗ 4 = 1  

 
 
21. Twierdzenie Poissona (dowód) 

Niech zmienna losowa X

n

 ma rozkład Bernoulliego określony wzorem: 

P(X

n

= k) = (

n
k

)p

n

k

(1 − p

n

)

n−k

       k=0,1,2,3,…,n 

p

n

 - prawdopodobieństwo sukcesu dla określonej zmiennej losowej X

n

 

Jeśli prawdopodobieństwo p

n

 maleje do 0 w ten sposób, że poczynając od pewnego n

0

np

n

= σ

n>n

0

gdzie σ ≡ const. > 0, to: 

lim

n→∞

P(X

n

= k) =

σ

k

k!

e

−σ

 

 
Jeśli wykonujemy dużą liczbę doświadczeń zgodnych ze schematem Bernoulliego, a prawdopodobieństwo 
sukcesu jest bliskie 0, to zamiast liczyć z rozkładu Bernoulliego liczymy z rozkładu Poissona. 
 
Dowód:   niech λ = np

n

 

background image

lim

n→∞

P(X

n

= k) = lim

n→∞

(

n
k

)p

n

k

(1 − p

n

)

n−k

) = lim

n→∞

n!

k!(n−k)!

p

n

k 1−p

n

n

1−p

n

k

=

1

k!

lim

n→∞

(n − k + 1)(n − k +

2) ∗ … ∗ (n − 1) ∗ n ∗

λ

k

n

k

(1−

λ
n

)

n

(1−

λ
n

)

k

=

λ

k

k!

lim

n→∞

(

n−k+1

n

) ∗ (

n−k+2

n

) ∗ … ∗ (

n−1

n

) ∗

n
n

(1−

λ
n

)

n

(1−

λ
n

)

k

=

  

λ

k

k!

lim

n→∞

(1 −

k−1

n

)(1 −

k−2

n

) … (1 −

1
n

) ∗

[(1+

1

−n

λ

)

−n

λ

]

−λ

(1−

λ
n

)

k

  =

λ

k

k!

 e

−λ

      c.n.d. 

 

22. Zmienne losowe typu skokowego. Rozkład zmiennej losowej typu skokowego. 

Skokowy  (dyskretny)  rozkład  prawdopodobieństwa  to  w  probabilistyce  rozkład  prawdopodobieństwa 
zmiennej  losowej  dający  się  opisać  przez  podanie  wszystkich  przyjmowanych  przez  nią  wartości,  wraz  z 
prawdopodobieństwem przyjęcia każdej z nich. Przykład: rzut monetą lub rzut kostką. 
+ wzory ze pkt 18 

 

Zmienne  losowe  typu  skokowego  ,  np.:  rzut  kostką,  zbiór  wartości  jest  przeliczalny.  Oznaczenie 
prawdopodobieństwa to określenie prawdopodobieństw dla każdego ze zdarzeń. 

 

 
 
23.Zmienne losowe typu ciągłego. Rozkład zmiennej losowej typu ciągłego. 

Ciągły rozkład prawdopodobieństwa - rozkład prawdopodobieństwa dla którego dystrybuanta jest funkcją 
ciągłą. Przykład: rozkład normalny. 
+ wzory ze pkt 18 

 

Zmienne losowe typu ciągłego, (zbiorem wartości jest zbiór liczb rzeczywistych). Są  one 
charakteryzowane przez funkcję gęstości . 
 

 

 
24.Twierdzenie Linderberga-Levy’ego 

Jeżeli X

n

 jest ciągiem losowym niezależnych zmiennych o jednakowych rozkładach mających wartość 

oczekiwaną m i wariancję σ

2

> 0, to ciąg losowy {U

n

}: U

n

=

1

σ√n

(∑

X

k

− nm)

n

k=0

 jest zbieżny według 

dystrybuant do zmiennej losowej o rozkładzie N(0,1). Czyli dla każdego U zachodzi relacja: 

background image

lim

n→∞

F

n

(U) =  

1

√2π

∫ e

x

2

2

dx

U

−∞

=  Φ(U) 

E (∑ X

k

n

k=0

) = ∑ E(X

k

) =

n

k=0

∑ m =

n

k=0

nm 

D

2

(∑ X

k

n

k=0

) = ∑ D

2

(X

k

) =

n

k=0

∑ σ

2

=

n

k=0

2

 

U

n

=

x

k

− mn

n

k=0

σ√n

 

 

25.Określenie populacji i próby 

Populacja - zbiór elementów podlegających badaniu statystycznemu. 

Próbą jest część populacji spełniająca następujące warunki: musi być reprezentatywna i losowa . 
Struktura próby musi być taka jak struktura badanej populacji. 

 

 

 

 

 

 

 

 

26.Definicja i własności estymatorów punktowych. 

Estymator – statystyka z próby obliczona celem uzyskania informacji o parametrach populacji generalnej. 

Q – parametr populacji generalnej 

Q

n

 – jego estymator obliczony z próby n-elementowej 

Q

n

 = f(x

1

,x

2

,…) jest zmienną losową, Q NIE. 

Inaczej: Wzory podające oszacowania (oceny) parametrów rozkładów teoretycznych (x,𝜎

2

, 𝜎 i innych) 

nazywamy estymatorami. 

Własności estymatorów: 

Nieobciążoność – wartość średnia estymatora jest równa wartości parametru populacyjnego. 
Zgodność – wraz ze wzrostem liczebności próby wartość estymatora zbliża się do parametru 
Efektywność – miarą efektywności estymatora jest rozrzut otrzymywanych wartości, czyli wariancja; 
najefektywniejszy estymator ma najmniejszą wariancję. 
Dostateczność – estymator jest dostateczny, jeśli wykorzystuje całą informację o parametrze, jaka 
zawarta jest w próbie. 

parametr 

estymator 

background image

średnia 

𝑥̅ 

wariancja 

σ

2

 

s

2

 

odchylenie standardowe 

σ

 

modalna 

m

o

 

𝑚𝑜

̂  

mediana 

m

e

 

𝑚𝑒

̂

 

 
 
 
 
 
 
 
 
27.Wyprowadzić wzór na estymator wartości oczekiwanej. 

x

i

= m + ε

i

        ε

i

− błąd losowy 

ε

i

2

→ min

n

i=1

        – metoda najmniejszych kwadratów 

Q(m) =   ∑(x

i

− m)

2

n

i=1

→ min 

Q

(m) = 2 ∑(x

i

− m) ∗ (−1) =

n

i=1

− 2 ∑(x

i

− m) = 0 | ∶ −2

n

i=1

 

∑(x

i

− m) = 0

n

i=1

 

∑(x

i

) −

n

i=1

∑(m) = 0

n

i=1

 

∑ (x

i

) − n ∗ m  =  0

n

i=1

  

m =

1
n

∑ x

i

n

i=1

 

x̅ =

1
n

∑ x

i

n

i=1

 

 

 

28.Udowodnić, że średnia arytmetyczna jest nieobciążonym estymatorem wartości oczekiwanej. 

E(x̅) = E (

1
n

x

i

n

i=1

) =

1
n

E(∑

x

i

n

i=1

) =

1
n

E(x

i

)

n

i=1

=

1
n

m =

n

i=1

1
n

nm = m   

c.n.d. 

 

 

background image

29.Udowodnić, że 

n

)

x

(

D

2

2

 

D

2

(x

i

) = σ

2

 

D

2

(x̅) = D

2

(

1
n

x

i

n

i=1

) =

1

n

2

D

2

(∑

x

i

n

i=1

) =

1

n

2

D

2

(x

i

)

n

i=1

=

1

n

2

σ

2

=

n

i=1

1

n

2

2

=

σ

2

n

   

c.n.d. 

 

 

30.Wyprowadzić wzór na przedział ufności dla wartości oczekiwanej na podstawie próby z populacji o 
rozkładzie normalnym ze znanym odchyleniem standardowym.