Nieformalne ujęcie współczesnej teorii testów

  1. Przedmiot pomiaru psychologii

    1. modalne cechy obiektów

    2. wartość cechy określa prawdopodobieństwo zachowania się człowieka w określonych sytuacjach

    3. cecha określa częstość zachowania

    4. cecha oznacza obiekt , który nawet jeżeli nie istnieje to ludzie zgodnie z takim konstruktem się zachowują

    5. poznanie takiej modalnej cechy umożliwia prognozowanie prawdopodobieństwa zachowania się człowieka w określonych sytuacjach

    6. cecha wiąże swoją nazwą zachowania mające tendencje do współzmienności, współwystępowania, korelowania

    7. część cech ma charakter wyjaśniający , na przykład teorie wyjaśniające wartość cechy na continuum introwersja - ekstrawersja

    8. efektem „ nadwyżki znaczeń” jaką posiadają cechy jako pojęcia teoretyczne jest możliwość generowania wielu prawdziwych definicji tej samej cechy , ponieważ nie ma sprecyzowanych zbiorów zachowań należących do zakresu pojęciowego danej cechy, on ma charakter statystyczny, dynamiczny,

  1. Test jako narzędzie pomiaru

  1. Podstawy pojęciowe klasycznej teorii testów, wynik prawdziwy

    1. Gulliksen : założenie jego , że każdy obiekt natury osobowej ma pewne prawdziwe a nieznane wartości cech go opisujących , które nie zależą ani od pomiaru ani od narzędzia pomiarowego

  1. jak to działa:

  1. Aksjomatyka Guliksena

    1. Guliksen: ” aby umocnić się w przekonaniu ,że wiemy przyjmujemy że”

  1. Estymacja wariancji błędu : mimo tego że wiemy ,że się nie dowiemy jak bardzo nie wiemy, to próbujemy się tego dowiedzieć. Ta wiedza ma za zadanie umocnić w nas poczucie ,ze jednak coś wiemy.

    1. efektem tego rozumowania jest stwierdzenie:

współczynnik korelacji między dwoma kolejnymi pomiarami jest równy rzetelności pomiaru , czyli równy jest stosunkowi wariancji wyniku prawdziwego do wariancji obserwowanego

    1. w tym momencie można zacząć zadawać sobie pytanie jak bardzo UFAMY (przedziały ufności) w to czego się dowiedzieliśmy

    1. Błogosławieni ci , którzy nie widzieli a uwierzyli (czy jakoś tak)

  1. Krytyka podejścia Guliksena

    1. u Guliksena opiera się to na silnych analogiach z pomiarem fizycznym jednak ze względu na nie obserwowalność błędu , nie da się zweryfikować postulatu nieobciążoności narzędzia pomiaru

  1. Podstawy pojęciowe współczesnej teorii testów.

    1. ziarenko wiary zasiane przez Guliksena wydało swój owoc, nowi prorocy LORD i NOVICK zabrali się za tworzenie nowych aksjomatów (prawd wiary, dogmatów), takich które nie naruszając autorytetu starego proroka , można by zweryfikować empirycznie (tutaj chyba chodzi o termin CUD , ale nie jestem pewien)

    1. kluczem do tego jest konstrukt rozkładu skłonności który jest...

  1. Definicja wyniku prawdziwego i jej konsekwencje wg Lorda Novicka.

  1. Na mocy słów Lorda Novicka rozkład skłonności do dobra i zła każdej osoby ma skończoną wariancję ,

    1. Lord Novick definiuje

    1. Uzasadnienie średniego błędu równego zeru co u Guliksena funkcjonuje jako aksjomat jest odpowiednio bardziej wiarygodne i na mocy przyjętych definicji zyskuje rangę twierdzenia

    1. w podobny sposób zostaje wyprowadzony 2 i 3 aksjomat Guliksena

  1. Treść i zadania teorii testów

    1. opis pojęć:

    1. pierwsze trzy parametry określają przydatność do celów praktycznych

    1. druga grupa pojęć służy do obsługi zależności , które się pojawiają przy stosowaniu jednoczesnego pomiaru wieloma narzędziami

  1. Rzetelność

    1. to Stosunek wariancji wyniku prawdziwego do wyniku obserwowanego

    2. ma sens jedynie w relacji do badanej populacji

    3. jest równa wartości współczynnika korelacji między wynikami w dwóch kolejnych badaniach

    4. jest równa kwadratowi współczynnika korelacji między wynikiem prawdziwym a wynikiem obserwowanym

    5. pomiar rzetelny to taki pomiar, I: którego wyniki wysoko korelują między sobą przy powtórzeniu badania i jednocześnie taki , II: którego wynik obserwowany wysoko koreluje z wynikiem prawdziwym

    6. założenie jest takie dla I twierdzenia ,że rozkłady skłonności mają takie same wartości i wariancje a błędy są niezależne, twierdzenie to zostało odrzucone na rzecz poniższego ze względu na uczenie się itd... czyli ,że zakłada to co w rzeczywistości jest nieosiągalne

    7. założenie liniowej eksperymentalnej niezależności: dwa pomiary są liniowo eksperymentalnie niezależne , jeżeli dla każdej osoby wartość oczekiwana wyniku testowego przy jednym pomiarze nie zależy od wyniku zaobserwowanego przy drugim pomiarze

    8. twierdzenia te są cytat z książki „ oczywiście empirycznie niesprawdzalne” przy argumentacji „ że założenie o liniowej eksperymentalnej niezależności pomiarów , zostało przyjęte w teorii testów ze względu na fakt , że jest najsłabszym z niesprawdzalnych założeń, przy , którym daje się jeszcze otrzymać podstawowe wyniki teorii testów. Im słabsze niesprawdzalne założenia teorii tym większe szanse jej adekwatności” co poniekąd jest prawdą ponieważ im twoje kłamstwo jest bliższe rzeczywistości tym większa szansa ,że nikt się nie zorientuje że kłamałeś, i niewykluczone ,że przypadkiem powiedziałeś prawdę , - i cholera jakie ma to znaczenie jeżeli nikt i tak tego nie jest w stanie sprawdzić? grrr....

    9. gdy dla każdej osoby wartości oczekiwane są równe a błędy są nieskorelowane i mają jednakowe wariancje to takie dwa pomiary nazywamy równoległymi: mierzą to samo i tak samo dokładnie

  1. Estymacja rzetelności

    1. Dla szacowania rzetelności testu istnieje kilka metod czyli różnych estymatorów dla rzetelności jako parametru

    2. jeżeli chcemy to zrobić w ramach jednego badania a nie męczyć siebie i próbkę dwoma (żeby móc się posłużyć korelacją) , to rozbijamy test w sposób przypadkowy na dwa podtesty , te dwa podtesty muszą być w miarę równoległe i szacujemy rzetelności testu przez wariancję podtestów i wariancję całego testu

    3. dobra na razie dosyć jak komuś się chce to niech dopisze ciąg dalszy &)

Arvhan

Strona 4