ściąga RPiSM teoria to co Kowal mówił,że da

1.Definicje prawdopodobieństwa:

Prawdopodobieństwo P(A) zdarzenia A wyznacza się a priori bez przeprowadzania doświadczenia, biorąc pod uwagę ogólną liczbę n jednakowo możliwych wyników (zdarzeń elementarnych) oraz liczbę nA wyników sprzyjających zdarzeniu A, z zależności:

P(A)= ; Zdarzenie pewne = 1, zdarzenie niemożliwe =0, dowolne zdarzenie losowe 0< <1

Prawdopodobieństwo zdarzenia A jest liczbą P(A)przyporządkowaną temu zdarzeniu. Liczba spełnia trzy następujące aksjomaty, lecz po za tym nie jest bliżej scharakteryzowana

I 0≤P(A)≤1

Prawdopodobieństwo dowolnego zdarzenia jest liczbą nie ujemną i nie większą od jedności.

II P(Ω)=1

Prawdopodobieństwo zdarzenia pewnego Ω jest równe 1.

III. Jeżeli A B = o tzn. jeżeli A i B są zdarzeniami rozłącznymi, to P(A B)=P(A)+P(B) Prawdopodobieństwo sumy zdarzeń rozłącznych jest równe sumie prawdopodobieństw poszczególnych zdarzeń.

Jeżeli rozpatrywane doświadczenie jest powtarzane n razy i zdarzenia A pojawia się nA razy, to prawdopodobieństwo P(A) zdarzenia A definiuje się jako granicę gęstości względnej nA/n, gdy n→ tj.

P(A)=

Prawdopodobieństwo zdarzenia A polegającego na tym, że wybrany losowo punkt obszaru G jest jednoczenie punktem obszaru g, jest określone stosunkiem obszaru g do miary obszaru G:

P(A)=

nazywamy prawdopodobieństwem zdarzenia A.

Gdzie:

- moc zbioru A

- moc zbioru Ω

2.Podstawowe działania:

I Prawdopodobieństwo wystąpienia jednego (dowolnego) z dwóch lub pewnej liczby wykluczających się zdarzeń jest równe sumie prawdopodobieństw tych zdarzeń:

P(A lub B lub C lub…)=P(A B C…)=P(A)+P(B)+P(C)+…

II Suma prawdopodobieństw układu zupełnego zdarzeń wykluczających się jest równa jedności:

P(A)+P(B)+P(C)+...+P(N)=1

III Suma prawdopodobieństw zdarzeń przeciwnych A i Ā jest równa jedności:

P(A)+P(Ā)=1

I Prawdopodobieństwo iloczynu dwóch zdarzeń zależnych A i B jest równe iloczynowi prawdopodobieństwa jednego z nich i prawdopodobieństwa warunkowego drugiego, przy założeniu że pierwsze wystąpiło:

P(A B)=P(A)∙P(B|A)=P(B)∙P(A|B)

II Jeżeli A jest zdarzeniem niezależnym od B, to prawdopodobieństwo iloczynu zdarzeń A I B jest równe iloczynowi prawdopodobieństw:

P(A B)=P(A)∙P(B)

III Jeżeli zdarzenie A jest niezależne od B, wówczas B jest także niezależne od A:

P(B|A)=P(B), jeżeli P(A|B)=P(A) oraz P(A)≠0

IV Prawdopodobieństwo wystąpienia co najmniej jednego ze zdarzeń A1,A2,…,An niezależnych i nie wykluczających się jest równe różnicy między jednością i iloczynem prawdopodobieństw zdarzeń przeciwnych Ā1, Ā2,…, Ān:

P(A1,A2,…,An)=1-P(Ā1)∙P(Ā2)…P(Ān)

I Prawdopodobieństwo sumy dwóch zdarzeń niewykluczających się A i B wyraża się wzorem;

P(A B)=P(A)+P(B)-P(A B)

II Jeżeli zdarzenia A1,A2,…,An(hipotezy) tworzą układ zupełny zdarzeń, to dla każdego zdarzenia B prawdopodobieństwo pełne(średnie) zdarzenia B jest następujące:

P(B)= )∙P(Ai)

III Jeżeli zdarzenia B z prawdopodobieństwem P(B)>0 zaobserwowane w pewnym doświadczeniu jest następstwem jednego z n zdarzeń A1,A2,…,An wzajemnie się wykluczających i jedynie możliwych, to prawdopodobieństwo a posteriori P(Ai|B) hipotezy, że Ai jest przyczyną zdarzenia B, jest określone wzorem Bayesa:

P(Ai|B)= =

3. Wzór i twierdzenie Bernoulliego - W „n” niezależnych doświadczeniach „k” wyników mających jednakowe prawdopodobieństwo może być tyle, ile można uzyskać różnych ustawień „k” zdarzeń A na „n” miejscach, czyli liczba ich jest równa liczbie kombinacji .

n- ilość wykonywanych doświadczeń

k- liczba sukcesów w n próbach

p-prawdopodobieństwo sukcesu w pojedynczej próbie

(1-p)<=>q – prawdopodobieństwo porażki w pojedynczej próbie

4. Lokalne twierdzenie Laplace’a: - Używane jest do obliczania prawdopodobieństwa wystąpienia zdarzenia „k” razy w „n” niezależnych próbach. Stosuje się zamiennie z Tw. Bernoulliego gdy występuje duże „n” i „k”

Przybliżona wartość:

Gdzie:

- funkcja gausa (do odczytania z tabeli)

Integralne twierdzenie Laplace’a – jeżeli stałe prawdopodobieństwo wystąpienia zdarzenia A w każdym z n niezależnych doświadczeń jest równe p i 0<p<1, to prawdopodobieństwo tego, że liczka k wystąpień zdarzenia A w ciągu n niezależnych doświadczeń należy do przedziału ( ≤k≤β), spełnia warunek:

a = b =

P(α≤k≤β) = 𝜱(b) – 𝜱(a)

5. Twierdzenia Graniczne

Jeżeli zmienna losowa X przyjmuje tylko wartości nieujemne i ma skończoną wartość oczekiwaną E[X], to dla dowolnego >0 jest spełniona równość:

Pr{X }≤

Jeżeli zmienna losowa X spełnia założenia podane w nierówności Markowa oraz posiada skończoną wariancję , to dla każdego k>0 zachodzi zależność:

Pr{|X-E(X)| }

Dla dumy Sn=X1+…+Xn, będącej liczbą wystąpienia zdarzenia A w n doświadczeniach oraz dla dowolnej liczby dodatniej jest spełniona relacja:

1

Twierdzenie Czybyszewa:

Jeżeli X1,X2,…Xn tworzą ciąg parami niezależnych zmiennych losowych spełniających warunki:

1.E(Xi)=µ dla i=1,2,…n (zmienne losowe Xi mają jednakową wartość oczekiwaną),

2. <C dla i=1,2,..,n(wariancje zmiennych losowych są skończone i wspólnie ograniczone stałą C), wtedy dla każdego >0 jest spełniona relacja:

, gdzie Sn=X1+…+Xi

Twierdzenia Markowa:

Niech{Xn} będzie ciągiem niezależnych zmiennych losowych opisywanych charakterystykami liczbowymi E(Xi)=µoraz = Odpowiednie parametry dla zmiennej = ] wynoszą:

E( = V( =

Jeżeli V(

Twierdzenie Moivrea-Laplacea:

Suma Sn=X1+…+Xn n jednakowych zdarzeń niezależnych zmiennych losowych X1,X2,…,Xn o rozkładach zero-jedynkowych ma rozkład dwumianowy o wartości oczekiwanej E(Sn)=np. i wariancji =npq

Dla zmiennej losowej standardowej:

Yn=

Można określić prawdopodobieństwo:

Pr( Pr(Yn= ) = dla k=0,1,2,…,n

Wtedy dla każdej wartości y jest spełniona relacja:

, gdzie jest dystrybuantą rozkładu N(y;0,1)

Standaryzowana zmienna losowa S o rozkładzie dwumianowym ma rozkład asymptotycznie normalny: N(np, )

Twierdzenie Lindeberga-Levy’ego

Niech Xi (i=1,2,..,n) będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie, skończonej wartości oczekiwanej µ i skończonym odchyleniu standardowym Sn=X1+…+Xn jest sumą zmiennych losowych.

Wtedy dla każdej wartości y zmiennej standardowej Yn:

,

Jeżeli suma Sn zmiennych losowych ma rozkład asymptotycznie normalny, oznacza to, że zachodzi dla niej centralne twierdzenie graniczne.

Centralne twierdzenie graniczne(twierdzenia Lapunowa)

Rozkład prawdopodobieństwa sumy niezależnie działających zmiennych losowych przy dużej liczbie składników (n ), bez względu na to, jakim rozkładom prawdopodobieństwa podlegają, dąży do rozkładu normalnego, wyrażonego gęstością prawdopodobieństwa:

p(x)= , gdzie - wartość oczekiwana(średnia) sumy zmiennych losowych, równa sumie ważonej wartości oczekiwanych składników:

=

a =

6.Charakterystyki funkcyjne i liczbowe zmiennej losowej

-Funkcja rozkładu prawdopodobieństwa zmiennej losowej dyskretnej opisuje prawdopodobieństwa przyjęcia przez zmienną losową poszczególnych możliwych wartości i może być przedstawiona w postaci tablicy, zależności analitycznej(wzoru) lub wykresu.

-Funkcja rzeczywista zmiennej rzeczywistej P(x)=Pr(X x), rowna przy każdym x prawdopodobieństwu, że zmienna losowa X przyjmuje wartość mniejszą lub równą x, nazywa się dystrybuantą(funkcją rozkładu) zmiennej losowej X.

-Funkcją gęstości prawdopodobieństwa p(x) zmiennej losowej ciągłej X nazywa się granicę stosunku elementu prawdopodobieństwa związanego z przedziałem od x do x+Δx do szerokości Δx tego przedziału przy warunku Δx

P(x)=

Gęstość rozkładu ma wymiar odwrotny do wymiaru zmiennej X, a jej możliwe wartości są rozmieszczone w przedziale od 0 do+

-Wartość oczekiwana(średnia generalna, wartość przeciętna) dyskretnej zmiennej losowej X, przyjmującej wartości x1,x2,x3,…xi,…xn odpowiednio z prawdopodobieństwami P(x1),P(x),P(x3),…P(xi),…P(xn) przedstawia sumę iloczynów każdej wartości tej zmiennej i odpowiedniego jej prawdopodobieństwa:

E(X)=µx=

Wartość oczekiwana ma wymiar zmiennej losowej. Różnica - jest nazywana oschyleniem od wartości oczekiwanej i może być zarówno dodatnia jak i ujemna. Prawdopodobieństwo odchylenia P( - ) pokrywa się z prawdopodobieństwem P( ), ponieważ przedstawia liczbę nie losową.

-Wariancja(dyspersja)zmiennej losowej dyskretnej X przedstawia sumę iloczynów kwadratów możliwych odchyleń zmiennej losowej od jej wartości oczekiwanej i prawdopodobieństw odpowiednich odchyleń:

V(X)=

Wariancja charakteryzuje rozrzut wartości zmiennej losowej w obie strony od wartości oczekiwanej. Wariancja ma wymiar kwadratu wymiaru zmiennej losowej i jest zawsze dodatnią liczbą nielosową.

-Odchylenie standardowe zmiennej losowej(średnie odchylenie kwadratowe)-pierwiastek kwadratowy z wariancji dla zmiennej losowej dyskretnej równy:

= =

-Średnia wartość kwadratów (wartość średniokwadratowa) zmiennej losowej dyskretnej opisana jest wzorem:

=

-Wartość oczekiwana E(X)=µx=

-Wariancja(dyspersja) V(X)=

-Odchylenie standardowe =

- Średnia wartość kwadratów: =

- µx2

7.Rozkłady prawdopodobieństwa:

Forma analityczna:

P(X=x)= (bez 2 nawiasu)

Forma graficzna

Charakterystyki liczbowe:

µx=p, =pq

Forma analityczna:

P(X=x)= px(1-p)n-x, x=0,1,2,…,n

Forma graficzna:

Charakterystyki liczbowe:

µx=np, =np(1-p)

Forma analityczna

P(X=x)=

Forma graficzna:

Charakterystyki liczbowe:

µx

Forma analityczna


P(X=x)=



Forma graficzna:

Charakterystyki liczbowe:

µx= =

Forma graficzna:

Charakterystyki liczbowe:

µx=m, = 2, A=0,S=0

Forma analityczna

p(x)= (bez 2 nawiasu)

Forma graficzna:

Charakterystyki liczbowe:

µx= , =

Forma analityczna:

p(x)=

Forma graficzna:

Charakterystyki liczbowe:

µx=β, 2

8. Estymacja punktowa – ma za zadanie, na podstawie wyników badań próby, ustalenie najbardziej prawdopodobnej wartości poszukiwanego parametru w postaci jednej liczby.

Estymacja przedziałowa- Charakteryzuje dokładność estymacji punktowej, umożliwia oszacowanie zakresu wartości(granic przedziału), który z określonym prawdopodobieństwem zawiera rzeczywistą wartość ocenianego parametru.

Przedziałem ufności jest przedział , którego granice i długość są wielkościami losowymi i który z określonym (bliskim 1) prawdopodobieństwem 1- , zwanym poziomem ufności, zawiera (obejmuje) rzeczywistą wartość nieznanego parametru populacji.

Przykłady estymacji przedziału ufności dla wartości oczekiwanej:

Model 1: Próba liczna (n wzięta z populacji o dowolnym rozkładzie oraz o nieznanej i znanym . Statystyka zgodnie z centralnym twierdzeniem granicznym ma rozkład normalny N( ). Zmienna standaryzowana: ma rozkład N(z;0;1). Poziom ufności określony jest wzorem: Model 2: Próba mało liczna (n<30), wzięta z populacji o rozkładzie normalnym oraz nieznanych . Korzystamy z rozkładu Studenta: . Model 3: (n wzięta z populacji o dowolonym rozkładzie oraz o nieznanych . Nieznane odchylenie standardowe niech będzie ocenione za pomocą nieobciążonego estymatora odchylenia standardowego Dla odpowiednio dużych wartości n rozkład statystyki z wystarczającą dokładnością może być opisany rozkładem N a zmienna standaryzowana Z rozkładem N(z;0,1). W tedy przedział ufności

9.Współczynnik korelacji między dwiema zmiennymi losowymi(kowariancją unormowaną) nazywa się stosunek kowariancji CXY do iloczynu odchyleń standardowych i zmiennych losowych X i Y:

10 Rozkład warunkowy

Warunkowe gęstości

p(y|x)=

p(x|y)=


Warunkowe wartości oczekiwane:

= + (x- )

= + (y- )


Warunkowe odchylenie standardowe:

=

=

Rozkład łączny zmiennych losowych X, Y - rozkład wektora losowego (X, Y ) to funkcja P((X, Y ) C), gdzie C to borelowski podzbiór płaszczyzny R2

11. 2 zmienne losowe

Warunkowe gęstości prawdopodobieństwa dwóch zmiennych losowych ciągłych X i Y:

Funkcja warunkowej wartości oczekiwanej i warunkowej wariancji zmiennej losowej X przy warunku Y=y. E(X|y)=fx(y)- równanie regresji X względem Y.

E(Y|x)=fy(x)- równanie regresji Y względem X i odpowiednia warunkowa wariancja:

Równanie regresji zmiennej Y względem X można także opisać:

Teoretyczna funkcja regresji Y względem x minimalizuje średni kwadrat odchylenia:

Warunek statycznej niezależności układu zmiennych:

Przedział ufności – wyznaczony na podstawie próby losowej przedział, który z określonym prawdopodobieństwem pokrywa nieznaną wartość szacowanego parametru.

Poziom ufności – prawdopodobieństwo z jakim chcemy znaleźć granicę przedziału obejmującego wartość szacowanego parametru. P=1-α

Poziom istotności – α – prawdopodobieństwo znalezienia się wartości szacowanego parametru poza przedziałem ufności.


Wyszukiwarka

Podobne podstrony:
ściąga RPiSM teoria to co Kowal mówił,że da wersja mini
ściąga RPISM teoria ze skryptu
ściąga RPISM teoria ze skryptu
ściąga RPISM teoria ze skryptu
PET, sciaga pety, Intensywność uszkodzeń - l(t) - jest to warunkowe prawdopodobieństwo tego, że obie
Sieci Komputerowe, inf sc w2, Przez sieć komputerową rozumiemy wszystko to, co umożliwia komputerom
Podstawy zarzadzania dr inz. Waclaw Kawczynski [ ściąga mini] [ teoria], zarzadzanie, ZARZADZANIE to
Ściąganie tipsów(1), Kosmetologia, ZDOBIENIE PAZNOKCI TIPSY- metoda żelowa, kurs i to, co musisz w
oiz, Na czarno jest to co udało się ustalić, że było
Teoria literatury, CO TO JEST TEORIA, J
Teoria literatury, CO TO JEST LIT., J
TNiB, Teoria z TNiB-ów (18.08.2007), Intensywność uszkodzeń - l(t) - jest to warunkowe prawdopodobie
Sieci Komputerowe, inf sc w3, Przez sieć komputerową rozumiemy wszystko to, co umożliwia komputerom
Teoria z PET-ów (02.09.2007), Intensywność uszkodzeń - l(t) - jest to warunkowe prawdopodobieństwo t
Makroekonomia - ściąga III , MAKROEKONOMIA to teoria tworzenia i podziału dochodu narodowego z uwzgl
Sieci Komputerowe, inf sc w1, Przez sieć komputerową rozumiemy wszystko to, co umożliwia komputerom
Rys 3 słup (proszę pamiętać, że to tylko przykładowy rysunek i państwo mają narysować to co liczyli
Podpora Polit, Emilia Czy testy mierzą to, co mierzyć powinny O trafności testów maturalnych sprawd

więcej podobnych podstron