background image

 

Rozdział 1. Umysł i poznanie 
 
 
 
 PPP bada w większej mierze procesy nieświadome. Bada złożony system wyspecjalizowany w odbiorze i 
przetwarzaniu informacji zwany umysłem. 
 
P O J Ę C I A 
 
procesy przetwarzania informacji
 – składają się na nie wszystkie operacje, dzięki którym odbierane przez jednostkę 
informacje są transformowane, przekształcane, redukowane, wzmacniane, zachowywane, przywoływane lub 
wykorzystywane w inny sposób.  
 
ekonomia systemu poznawczego – przetwarzanie wszystkich informacji nie miałoby żadnego sensu – większość z 
nich jest i tak bezużyteczna, z punktu widzenia w jakim znajduje się organizm. Ekonomia działania poznawczego 
przejawia się też w tym, że człowiek wielokrotnie wykonujący te same działania tworzy coraz bardziej stabilne i 
elastyczniejsze struktury poznawcze.  
 
struktury poznawcze
 – względnie trwałe elementy umysłu możliwe do wielokrotnego wykorzystania w różnych 
warunkach i sytuacjach. Struktury poznawcze: wiedza, sądy, przekonania, schematy. 
 
skąpiec poznawczy 
- to człowiek, czyli angażuje on tylko cześć dostępnych mu zasobów poznawczych, jak gdyby 
zachowując resztę na wszelki wypadek i chroniąc się prze przeciążeniem systemu. Skutkiem skąpienia jest skłonność 
do stosowania heurystyk, schematów stereotypów.  
 
pamięć
 – tu przechowywane są struktury poznawcze, stąd łatwo je wydobyć i tu nie ulegają degradacji,  
 
uwaga 
– uniknięcie przeciążenia informacyjnego, selekcja danych.  
 
kontrola poznawcza – zdolność systemu do samoregulacji i samoorganizacji. Możliwość powstrzymania się od reakcji 
i wyzwolenia jej we właściwym momencie. 
 
poziomy przetwarzania – ta sama informacja może być poddawana obróbce z różną intensywnością i starannością. 
 
kontekst – przetwarzanie na każdym poziomie uzależnione jest od kontekstu. Jest kontekst zewnętrzny (otoczenie/ 
widzimy zdjęcie niebezpiecznego zwierzęcia, wiemy ze to tylko zdjęcie więc nie uciekamy) i wewnętrzny (wzbudzone 
struktury poznawcze/ hodowca jadowitych węży widok zwierzęcia nie jest bodźcem do ucieczki, bo ma wiedze o 
sposobach unikania niebezpieczeństwa).  
 
reprezentacja poznawcza – budowana przez indywidualne doświadczenie, jest wynikiem aktywnego konstruowania 
obrazu świata przez podmiot – taki pogląd na naturę umysłu nazywa się konstruktywizmem. 
 
reprezentacjonizm
 – poznawcza reprezentacja krzesła jest uproszczonym, zastępczym modelem prawdziwego 
krzesła jako pewnej kategorii obiektów lub konkretnego egzemplarza tej kategorii. Dzięki reprezentacjom umysł 
może sobie radzić sobie w warunkach, które przez swoją złożoność lub nowość przekraczałyby jego możliwości. 
 
solipsyzm – pogląd o istnieniu wyłącznie podmiotu, który poznaje już nie świat, lecz wyłącznie własne miazmaty. 
 
odruch orientalny – reakcja na wydarzenia nagłe i nieoczekiwane (głośny dźwięk, nowa sytuacja). Obserwuje się 
znieruchomienie i ukierunkowanie receptorów na odbiór bodźców. 
 
zachowanie eksploracyjne – aktywne poszukiwanie informacji w otoczeniu.  
 
interioryzacja – rozwój poznawczy dokonuje się w ten sposób, że najpierw przejawia się w zachowaniu a potem się 
uwewnętrznia. Można powiedzie, że umysł ewoluuje, przekształcając się z postaci jawnej w postać ukrytą. 
 

background image

 

 
 
MODELE  UMYSŁU 
 
1.  Blokowy   
Informacja przetwarzana przez system sekwencyjnie i oddolnie (bottom-up), czyli od wejścia sensorycznego aż po 
wyjście behawioralne. Sekwencja przetwarzania składa się z etapów, następujących po sobie kolejno i realizowanych 
w kolejnych blokach procesów przetwarzania informacji. Blok – zespół procesów przetwarzania informacji o 
podobnym charakterze i zadaniach, obsługujący wyróżnioną czynność poznawczą (np. spostrzeganie, pamięć, 
kontrolę motoryki). W modelu blokowym wyróżniono następujące bloki: wejście sensoryczne, uwagę, spostrzeganie, 
pamięć, procesy myślowe, decyzyjne, wyjście behawioralne). 
 
Model  atkinsona i shiffrina  - magazyny pamięci: rejestr sensoryczny, pamięć krótkotrwała, pamięć długotrwała. 
 
Model  hydrauliczny uwagi selektywnej broadbenta  - 3 bloki: kanały sensoryczne, filtr uwagi, kanał przetwarzania 
semantycznego. 
 
Komputerowa metafora umysłu – porównanie elementów ludzkiego systemu poznawczego do analogicznych 
elementów systemu komputerowego. Komputer tez działa według reguły przetwarzania oddolnego: odbiera dane na 
wejściu  przetwarza je zgodnie z algorytmami  informacja na wyjściu. 
 

McClelland i Rumelhart

  - krytyka modelów blokowych, bo człowiek nie analizuje pojedynczych cech a całość wzorca 

jakim jest litera. Analiza sensoryczna dokonuje się równolegle z analizą semantyczną, zmierzającą do stwierdzenia, co 
znaczy widziana przez nas litera. Ponadto litery nabierają sensu dopiero w szerszym kontekście słowa, które tworzą. 
Informacje o znaczeniu liter i słów przechowywane są w pamięci trwałej, dlatego analiza sensoryczna musi się 
dokonywać równolegle. 
 
 
 2.  K o n c e p c j a   p o z i o m ó w    p r z e t w a r z a n i a  
 
Każda informacja jest przetwarzana przez te same struktury (w modelu blokowym były struktury), ale na różnym 
poziomie głębokości. Nie ma tu wydębionych etapów przetwarzania i odpowiadających im struktur. 
Wraz z pogłębianiem przetwarzania wzrasta zarówno liczba, jak i złożoność operacji, jakim w toku procesu 
przetwarzania poddawane sądocierające do systemu informacje. 
 
3 poziomy przetwarzania:  
P Ł Y T K I – analiza sensoryczna. Nietrwałość informacji, podatność na zakłócenia. Cel: np. detekcja 2 identycznych 
znaków (liter, cyfr…) 
G Ł Ę B S Z Y – analiza semantyczna (rozumienie znaczenia słów), bardziej trwały ślad pamięciowy i odporny na 
zakłócenia i zapominanie. Cel: stwierdzenie identyczności 2 lub więcej elementów należących do 1 kategorii (np. 
owoców, pojazdów…) 
N A J G Ł E B S Z Y – aktywacja skojarzeń z wcześniej odebranym i przeanalizowanym sensorycznie lub semantycznie 
sygnałem. 
 
Informacja podlegająca przetwarzaniu może pochodzić z 2 źródeł: 
O B I E G   P I E R W O T N Y – informacja polega na przejściu danych odbieranych na poziomie płytkim przez poziom 
głęboki aż do poziomu najgłębszego. 
O B I E G   W T Ó R N Y – Zjawiska pamięciowe. 
 

Craik  i Lockghart

 – umysł – system jednolity, przekazujący sobie informacje w określonym porządku, o jednolitej 

strukturze, bez kolejnych etapów przetwarzania, za to z wydzielonymi poziomami obróbki danych – od płytkiego do 
najgłębszego. Wejście do systemu może być zlokalizowane na którymkolwiek z poziomów, zakłada też oddolny 
kierunek przetwarzania – tylko w stronę poziomu najgłębszego. 
 
 
 

background image

 

3.  S y s t e m   m o d u ł o w y  
 
Metaforą umysłu modularnego jest skrzynka z narzędziami, w której znajdziemy mnóstwo różnych specjalistycznych 
przyrządów, ale nie znajdziemy narzędzia uniwersalnego. 
F O D O R – umysł składa się z 3 rodzajów budulca:  
Przetworników – pozyskiwanie energii dopływającej do organizmu i przekształcanie jej w postać dostępną dla 
pozostałych mechanizmów psychologicznych.  
Systemów centralnych – wnioskowanie i tworzenie przekonań, myślenie, poznanie. 
Modułów – pośredniczy między przetwornikami a systemami centralnymi. 
 
Cechy modułów:  
1. Zależność od dziedziny – każdy moduł może działać tylko na określonej klasie bodźców (twarz ludzka, dźwięki…), 
każdy moduł jest wyspecjalizowany w 1 funkcji i nie może pełnić żadnej innej,   
2. Automatyczność działania – raz uruchomiony moduł nie może wyhamować, dopóki nie wykona swego zadania. 
Działa szybko i nie angażuje uwagi, pamięci roboczej. 

Moduły działają niezależnie od siebie. Domeną modułów jest przede wszystkim percepcja i sterowanie 

motoryką, moduły obsługują wejście i wyjście systemu poznawczego, a centralne funkcje tego systemu obsługuje 
uniwersalny „procesor” wszechstronnego zastosowania (jego funkcja jest np. myślenie) 
 
4.  M O D E L   S I E C I O W Y   ( k o n e k s j o n i z m ) (sieci neuropodobne) 
Założenia modelu: przetwarzanie informacji  - dzięki aktywności bardzo licznych i prostych jednostek (które aktywują 
się w tym samym czasie) – tworzą one sieć. Poznanie jest równoległym i rozproszonym przetwarzaniem informacji. 
 
 
 

  

      Rozdział 2. Reprezentacje umysłowe 

 
 

 
Reprezentacja poznawcza- umysłowy odpowiednik obiektów realnych, fikcyjnych czy hipotetycznych. Obiektem 

może być przedmiot, osoba, kategoria, relacja. Reprezentacja poznawcza zastępuje swój obiekt w procesach 
przetwarzania informacji. 

 
Funkcja – Przedstawienie w obrębie umysłu wszelkich zdarzeń bodźcowych dostępnych zmysłom 
 
Reprezentacje są:  

 

Trwałe – składają się na struktury wiedzy, powstają i zmieniają się w dłuższym cyklu czasowym. 

 

Nietrwałe – powstają doraźnie, np. w celu podjęcia decyzji, później zanikają, Są to np. wyobrażenia, etykiety 
werbalne, sądy, modele umysłowe 

 
 reprezentacja pojęciowa matki z reguły należy do najmniej podatnych na zmiany 
 

Proces tworzenia reprezentacji- odmienne stanowiska 

  Realizm- Bezpośrednie odwzorowanie bodźca w umyśle 
  Konstruktywizm- proces tworzenia złożonej konstrukcji umysłowej, polegający na zakodowaniu danych 

sensorycznych w specjalnym języku w wyniku czego dane zmysłowe zostają przetłumaczone na dane 
umysłowe 

Rodzaje reprezentacji: 

wg 

A. Paivio

 do reprezentacji zalicza się m.in. obrazy umysłowe, ślady pamięciowe, słowa (elementy języka), sądy, 

pojęcia, reprezentacje pojęciowe (prototypy, listy cech) oraz schematy 

Rebena

 to obrazy umysłowe, słowa i idee ( abstrakcje) 

Eyesenck i Keane

 najbardziej restrykcyjny podział na: 

 

 

 

reprezentacje analogowe-obrazy umysłowe, modele mentalne 

 

 

 

reprezentacje w formie sądów/ twierdzeń 

 

background image

 

Obrazy umysłowe- są najbardziej zbliżone do rzeczywistej formy przedstawionych obiektów np. dom (są okna, 
drzwi,dach, dach jest na szczycie itd) 
Pojęcia abstrakcyjne są natomiast bardzo oddalone od rzeczywistości. 
Wyobrażenia: 
- jeden z wielu typów reprezentacji umysłowych 
- nietrwała struktura poznawcza, zbliżóna do spostrzegania, występuje pod nieobecność wyobrażanego obiektu 
- nie muszą przyjmować formy obrazowej 
- umysłowe przedstawienie przedmiotu, który przestal dzialać na nasze zmysły (Maruszewski) 
- charakteryzują się brakiem trwałości i ścisłym powiązaniem z percepcją 
 
Wyróżniono wyobraźnie: 

  Twórczą- zdolność do tworzenia nowych wyobrażeń oraz pojęć i innych reprezentacji poznawczych 
  Odtworczą- odpowiedzialna za tworzenie się wyobrażen obiektów wczesniej spostrzeganych i dobrze 

znanych 

Obraz umysłowy 
- forma reprezentacji poznawczej świata w umyśle 
- ścisła odpowiedniość w stosunku do obiektu (jakby wew. fotografia) 
- analogowy charakter 
Twierdzenie o wewnętrznej fotografii odrzuca wielu badaczy tłumacząc istnienie wyobrażeń w inny sposób - umysł 
generuje wyobrażenie z głębszych struktur wiedzy zapisanych w postaci pojec i twierdzen a nie obrazów. 
 

Teoria Kosslyna: 

Wyobrażenia składają się z dwoch komponentów: 

1.  Powierzchniowego 

- zawiera to co jest dostępne w doświadczeniach wew. 
- jego elementy powstaja w wyniku dzialania elementów głębokich 
- świadome i nietrwałe doświadczenia ALE- właściwe wobrażenia maja charakter trwały i niedostępny   
świadomemu doświadczaniu obrazu 

              - obraz koduje inf. w sposób analogowy i przestrzenny 

2.  Głębokiego 

- obejmuje to co jest zapisane w LTM 

 
Spór o naturę wyobrażeń: 

 

Stanowisko obrazowe- wyobrażenia wzrokowe są kodowane w postaci reprezentacji posiadających zarówno 
własności przestrzenne jak i zmysłowe. Inf werbalne i wizualne maja różne kody 

 

Stanowisko twierdzeniowe (propozycjonalne)- dane zmysłowe są kodowane w postaci abstrakcyjnych 
zbiorów twierdzeń czy sądów tak jak inf werbalne 

 
Hipoteza funkcjonalnej ekwiwalencji percepcji i wyobrażni 

Shepard i Chapman

- badanie z mapą USA 

Shepard

- badanie o podobieństwie cyfr 

Badania te SA silnym argumentami na rzecz tezy i funkcjonalnej ekwiwalencji spostrzegania i wyobrażania co 
zakładał Kosslyn 
 
Rotacje mentalne (argument na rzecz stanowiska obrazowego) 
 Paradygmat rotacji mentalnej- prezentowane cyfry, litery lub figury geometryczne wzajemnie zrotowane lub 
jeszcze dodatkowo przekształcone (lustrzane odbicie). Badani odpowiadali na pytanie czy dwa prezentowane bodźce 
są identyczne 

 

Cooper i Shepard

- rotowane litery (G,J,R) lub cyfry (2,5,7) nachylone pod różnmi kątami mogły być też 

reprezentowane w lustrzanym odbiciu. Badani musieli swierdzić czy symbol jest prezentowany prawidłowo 

 

Shepard i Metzler

- na monitorze prezentowano dwie rotowane względem sibie figury trójwymiarowe 

  Stwierdzono : czas decyzji wzrasta wraz z wielkościa kąta rotacji niezależnie od płaszczyzny rotacji 

 

Argumenty potwierdzające, że reprezentacje wyobrażeniowe maja charakter obrazowy: 

background image

 

- liniowa zależność miedzy kątem rotacji obiektu a czasem potrzebnym na podjecie decyzji (niezależnie od: typu 
zadania- identyfikacja, porównanie; typu rotowanego symbolu- litery, cyfry, symbole wymyślone; formy rotacji-
płaszczyzna, przestrzeń 
- badani pracowali w różnych warunkach- percepcji i wyobraźni a rezultaty w obu warunkach niewiele się różniły 
 
WYJĄTKI (wyklad) 
Kąt 180- nie ma czasami efektu rotacji. Czas RT bardzo krótki- Koriat, Norman, Kimchi 
 
Skaning mentalny (argument za stanowiskiem obrazowym) 

 

Kosslyn

 

Efekt wielkości obiektu- im mniejszy obiekt tym dłuższy czas RT 

       - Efekt złożoności- im bardziej skomplikowana struktura obiektu tym RT dłuższe 
       - Efekt ziarnistości obrazu- aby podać szczegóły jakiegos obiekty, trzeba go sobie w wyobraźni „powiększyć” 

 

Kosslyn, Ball, Reiser

 

Efekt odległości- badanie z mapą punktem fiksacji- im większa odległość obiektu od punktu tym RT dłuższe 

 

Wyjątki( wyklad) 

 
Argumenty przeciw stanowisku obrazowemu: 
- tożsamość funkcjonalna nie oznacza tożsamości strukturalnej (Edelman) 
- efekt rotacji- badania Kariata, Normana i Kimcha wykazuje ograniczenie powszechności tego prawa. Ludzie nie 
zawsze dokonują rotacji chcąc porównać obiekty 
- Marmor i Zaback- badanie osób niewidomych o wykonanie zadania Coopera i Sheparda. Badani wykorzystywali 
dotyk. Wykazano efekt liniowy między RT a wielkościa kąta 
 
Również badania Indos- Peterson, Raskos- Ewaldson wykazały możliwą zależność modalności zmysłowej  formy 
wyobrażeniowej 
- skaning zalezy od oczekiwań badaczy (instrukcja) 
- alternatywne wyjaśnienia efektu odległości, wielkości i złożoności (sądy) 
 
Reprezentacje werbalne 
Sylogizm werbalny- zadanie wymagające wyciągania wnioskow z przeslanek 

Clark

- badanie z sylogizmami werbalnymi- im bardziej skomplikowana konstrukcja w stosunku do przesłanek tym 

czas odpowiedzi jest dłuższy 
 Paradygmat weryfikacji treści zdań- badanym prezentuje się obazek przedstawiający „+” i „*” w przestrzeni. 
Jeden symbol jest u góry a drugi na dole. Uczestnikom prezentuje się zdanie np. „plus jest nad gwiazdką” a badani 
musza swierdzic zgodność zdania z obrazkiem  

Clark i Chale

 – najpierw zdanie potem obrazek 

McLeeod, Hunt i Mathews

- odwrotnie 

Im bardziej skomplikowane logicznie i gramatycznie zdanie, tym czas weryfikacji dłuższy 
 

Sternberg

- analizował związek miedzy czasem rozwiązywania sylogizmow a zdolnościami przestrzennymi 

 
Teoria podwójnego kodowania 

Paivio

Są dwa systemy reprezentacji rzeczywistości 

 

Niewerbalny (sensoryczny) 
-  5 podsystemów kodowania danych zmysłowych 

- każdy podsystem ma inny język kodowania i odpowiada za inną modalność sensoryczną 
imageny- wszelkie niewerbalne reprezentacje umysłowe, są przetwarzane szybko i równolegle, ponieważ    
  reprezentują struktury holistyczne (całe obiekty, grupy obiektów) 

Czyli: imageny zachowują niektóre fizyczne właściwości obiektu np. wielkość 
Badanie- kodowanie zależne od wielkości obiektu (zdjęcie)- małe obiekty zapamiętujemy gorzej niż duże 

 

Werbalny (językowy) 

- trzy rodzaje podsystemów do kodowania inf. przeznaczonych dla danych nadchodzących kanałem 
wizualnym, akustycznym, dotykowym 

logogeny- wszystkie reprezentacje werbalne 
- przetwarzanie wolne i szeregowe 

background image

 

- kodowanie niezależne od wielkości obiektu 

Oba systemy są powiązane relacjami. Mają charakter referencyjny- reprezentacjom obrazowym odpowiadają 
werbalne i odwrotnie 
 
Trzy rodzaje procesów 
1 . Referencjalne- wzbudzanie reprezentacji werbalnej aktywizue reprezentację niewerbalną i na odwrót    
2. Reprezentacyjne- przyporządkowanie poszczególnych obiektów, spostrzeganych w różnych modalnościach 
zmysłowych do jednego z 5 podsystemów niewerbalnych lub jednego z 3 podsystemów werbalnych  
3 . Asocjacyjne- odpowiadają za łączenie się poszczególnych reprezentacji w skojarzone ze sobą grupy           

 

Obraz może zostać zakodowany werbalnie ale to jest mniej prawdopodobne niż kodowanie obrazowe i na odwrót 

 

 

Paivio, Yuille, Mandigan

- wysoka korelacja pomiędzy konkretnością słowa a możliwością jego obrazowej 

reprezentacji w umyśle 

 

Richardson-

 wyobraźnia wspomaga zapamiętywanie słów, ale tylko gdy nie są abstrakcyjne 

 

Johnson, Paivio, Clark

- definicje dla słów konkretnych są bardziej precyzyjne, dłuższe i wspomagane 

wyobraźnią niż słowa abstrakcyjne 

 

Efekt przewagi obrazu nad słowem- Paivio i Csapo- kodowanie obrazowe bardziej sprzyja efektywności 
zapamiętania 

 

Reprezentacje numeryczne 

 

Efekt dystansu numerycznego- 

Moyer

znacznie łatwiej porównać wartości liczb zdecydowanie 

różniących się np. 2 i 8 a znacznie trudniej mniej różniących się np. 2 i 4 

 

Campbell

- werbalny format liczb zmniejsza efekt dystansu, np. trzy 

 

Hipoteza trzeciego języka/języka myśli 

Anderson 

- umysł nie gromadzi trwałęj wiedzy ani w postaci obrazów, ani w postaci etykiet werbalnych ale w    
   postaci zbioru sądów(twierdzeń) 
- kod twierdzeniowy ma postać abstrakcyjnych, amodalnych twierdzeń opisowych 
- sąd- forma reprezentacji umysłowej, wyrażająca relacje pomiędzy obiektami 
- rachunek predykatów- logiczny system przetwarzania zdań abstrakcyjnych. Dzięki niemu można  
  przekształcać sądy 

 

Oprócz obrazów, słów i sądów umysł generuje tzw. Modele mentalne- 

Philips Johson-Laird

są to nietrwałe 

reprezentacje słowno-obrazowe o dość dużym poziomie odpowiedniości. Powstają na bazie reprezentacji 
nietrwałych (spostrzeżeń, wyobrażeń) i trwałych (wiedzy) 
 
Stanowisko eklektyczne- dopuszcza możliwość istnienia wielu różnych form kodowania 
 
 
 
 
Rozdział 3. Pojęcia i schematy 
 
 
 
Pojęcie – 
poznawcza reprezentacja zbioru obiektów, np. kategorii naturalnych (owoce), sztucznych (liczby 
rzeczywiste) lub hipotetycznych (UFO). 
Schemat poznawczy – złożona forma reprezentacji umysłowej, obejmująca zarówno sens typowej sytuacji (obiad w 
restauracji), jak i znaczenie typowych form zachowania (płacenie rachunku), jakie powinny być wygenerowane w 
reakcji na tę typową sytuację. 
 
POJĘCIA 

background image

 

Są schematycznymi reprezentacjami zbiorów rzeczywistych obiektów, stanowią dla nich nadrzędną kategorię 
umysłową. Pozwalają identyfikować i rozróżniać obiekty w ramach konkretnych kategorii. Są zbiorami cech 
połączonych znaczeniowo lub funkcjonalnie. 
DESYGNAT – egzemplarz – przedstawiciel danej kategorii pojęciowej. Poszczególne desygnaty mogą się znacznie 
różnić w ramach jednej kategorii. 
 
Struktura pojęciowa istotnych właściwości: 
Koniunkcyjna (A i B) 
Dysjunkcyjna (A albo B) 
 
Pojęcia są niezależne od formy zmysłowej i właściwości zmysłu, którym postrzegane są obiekty. Mają charakter 
amodalnych sądów o relacjach między właściwościami obiektów. 
 
Zapewniają systemowi poznawczemu ekonomiczne funkcjonowanie (skąpiec poznawczy) – ograniczają różnorodność 
danych docierających do umysłu. 
 
Mają różne stopnie ogólności – im bardziej ogólne pojęcie, tym bardziej jest zbiorem właściwości typowych.  
 
Proces kategoryzacji – łączenie obiektów o wspólnych właściwościach w grupy. 
 
Pojęcia nabywane są w toku doświadczenia – są zależne od kontekstu ich nabywania i stosowania.  
 
Pojęcia matrycowe – inaczej sztuczne, naukowe - reprezentacje skończonej liczby cech wspólnych wszystkim 
desygnatom. Cechy te przysługują wszystkim desygnatom w jednakowym stopniu. 
Pojęcia naturalne – dominują w tworzeniu potocznej reprezentacji świata, są mniej precyzyjne, posiadają bardziej i 
mniej typowe egzemplarze.  
 
Struktura i funkcjonowanie reprezentacji pojęciowych 
 

a)  Teorie klasyczne (

Bruner, Goodnow, Austin/ Lewicki/ Loftus, Loftus

Pojęcie jako syntetyczny opis pewnej klasy desygnatów, zbiór cech istotnych, koniecznych i wyczerpujących. Cechy 
te inaczej nazywa się cechami definicyjnymi. 
Nabywanie w procesie abstrahowania – wyróżniania pewnych cech przy pominięciu pozostałych. 
Abstrakcja pozytywna – wyróżnianie cech istotnych (błąd I rodzaju) 
Abstrakcja negatywna – pomijanie cech nieistotnych (błąd II rodzaju) (Lewicki, 1968) 

Lewicki 1968 r

. – badanie w drugiej odmianie paradygmatu recepcji – nabywanie sztucznego pojęcia „klipiec”. 

Wnioski: testowanie hipotez jako kolejny sposób nabywania pojęć. Szybkość nabywania zależna od sumarycznej 
liczby cech istotnych i różnicujących.  
Pojęcia jawne/niejawne (

Howard

) – nabywane przez testowanie hipotez/abstrakcję percepcyjną. 

 

Procedura identyfikacyjna a istota pojęcia  

 

Krytyka dotycząca istnienia pojęć dysjunktywnych 

 

Być może teorie klasyczne mają zastosowanie jedynie wobec pojęć matrycowych, typowo naukowych.  

 

Elastyczność procesu kategoryzacji – możliwość redefiniowania pojęć na skutek nowych doświadczeń. 

 

b)  Teorie probabilistyczne 

Pojęcie jako sumaryczny opis wszystkich egzemplarzy będących desygnatami pojęcia. Cechy te różnią się w zakresie 
powszechności występowania u poszczególnych egzemplarzy, dlatego każdy egzemplarz posiada je jedynie z 
pewnym prawdopodobieństwem. 
Zawiera mniej i bardziej typowe właściwości obiektów, a co za tym idzie, mniej lub bardziej typowe egzemplarze 
(wróbel vs kura). 

Smith, Shoben, Rips (1973, 1974)

 po badaniu w paradygmacie podejmowania decyzji semantycznych, wykazali, że 

podjęcie decyzji co do przynależności obiektu do danej kategorii zależy od jego typowości. 
 
Cechy definicyjne
 – tworzą rdzeń pojęcia, posiadają je wszystkie desygnaty pojęcia 
Cechy charakterystyczne – reprezentatywne cechy egzemplarzy pojęcia, wskazują na typowość obiektu, im jest ich 
więcej, tym bardziej typowy egzemplarz 

background image

 

 
Porównanie całościowe – I etap kategoryzacji – obejmuje wszystkie cechy kategoryzowanego obiektu oraz pojęcia, 
jeśli egzemplarz jest typowy – zostaje zaliczony do kategorii. 
Porównanie szczegółowe – II etap kategoryzacji – dotyczy cech definicyjnych nadrzędnej kategorii, polega na 
ustaleniu proporcji posiadanych przez obiekt cech definicyjnych do cech mu brakujących. Wymaga czasu, ale 
pozwala na zaliczenie do danej kategorii nawet bardzo nietypowych egzemplarzy. 
 
Przestrzeń semantyczna reprezentacji pojęciowej – pojedyncze desygnaty pojęcia można wpisać w układ dwóch 
podstawowych wymiarów.  
 
Krytyka: 

 

Zestaw cech prawdopodobnych niekoniecznie tworzy spójną kategorię pojęciową. Dwie bliskie kategorie 
mogą mieć ten sam zestaw cech definicyjnych, a różnić się cechami charakterystycznymi.  

 

Nie można zdefiniować przez zestaw cech o dużym stopniu typowości – brak symetrii w zakresie cech 
kategorii i cech egzemplarzy. (egz – poj/ poj-egz) 

 
 
 
 
 

c)  Teorie prototypów 

(Rosch, 1973

Wymiar pionowy (dot. Stopnia ogólności pojęcia) ma wg 

Rosch

 trzy poziomy: 

a)  poziom nadrzędny – pojęcia odzwierciedlane przez niewielką liczbę cech. Kategorie ogólne charakteryzują się 

dużą inkluzywnością.  

b)  Poziom podstawowy – najpowszechniej używany, pojęcia z tego poziomu są wymieniane przez nas 

spontanicznie. Zawiera większą liczbę cech charakteryzujących pojęcie. Egzemplarze tego poziomu są 
najszybciej identyfikowane.  

c)  Poziom podrzędny – pojęcia specyficzne, szczegółowe, o dużej liczbie charakteryzujących je cech. Trudniej je 

zidentyfikować, ale łatwiejsze w opamiętywaniu metodą rozpoznawania.  

Wymiar poziomy dotyczy desygnatów pojęcia znajdującego się na poziomie wyższym. Desygnaty te różnią się 
typowością. Najbardziej typowy, reprezentatywny egzemplarzy to prototyp.  
 
Koncepcja prototypów 
zakłada, że pojęcia nabywane są w procesie doświadczania egzemplarzy. Najefektywniej 
nabywa się pojęcie, jeśli zaczyna się od prototypu (wymiar poziomy) kategorii pojęciowej z poziomu podstawowego 
(wymiar pionowy). 
- Prototyp jako „czysty” lub „najlepszy” desygnat. 
Problemy z klasyfikacją na skali typowości. Prototypy wspólne dla badanych z tej samej populacji, ale mogą się różnić 
kulturowo (wróbel vs drozd), jak również płciowo (spódnica vs spodnie). 
Prototyp może być: 

 

Najbardziej typowym egzemplarzem, najbardziej podobnym do pozostałych desygnatów kategorii i 
najmniej podobnym do desygnatów innych kategorii - podobieństwo rodzinne (

Rosch

 

Egzemplarzem o średniej arytmetycznej właściwości wszystkich desygnatów kategorii (

Posner i Keele

). 

Percepcyjne doświadczenie prototypu nie byłoby konieczne do uformowania się pojęcia. (Co z pojęciami 
naturalnymi? Taki prototyp może być obiektem nieistniejącym w rzeczywistości) 

 

Modalną spotykanych egzemplarzy (

Neumann

) lub modalną właściwości wszystkich spotkanych 

desygnatów. [Poglądy Neumanna, ale i Posnera i Keele nie dają się pogodzić z przekonaniem o względnej 
trwałości prototypu]. 

 

Hampton

 – pojęcie polimorficzne – pojęcia definiowane przez pewną liczbę cech charakterystycznych, 

nieprzysługujących żadnemu z desygnatów w stopniu koniecznym i wystarczającym. Protopyme pojęcia 
polimorficznego ma być desygnat o największej liczbie cech charakterystycznych. 

 
Teorie prototypów znajdują zastosowanie w badaniu pojęć konkretnych. Bardziej abstrakcyjne kategorie pojęciowe 
wydają się nie mieć prototypów. (Ale: badania Hamptona na temat pojęć abstrakcyjnych – emocje mogą być 
reprezentowane w formie prototypów przy niższym poziomie reprezentacji). 
Podsumowując: 
- prototyp jest konkretnym egzemplarzem (niekoniecznie rzeczywistym) 

background image

 

- proces kategoryzacji polega na określaniu stopnia podobieństwa (dystansu semantycznego) między 
kategoryzowanym obiektem a prototypem (ma to odzwierciedlenie w różnicach w rankingach typowości) 
- pojęcia nabywane są na podstawowym poziomie hierarchii poprzez doświadczanie egzemplarzy typowych 
 

d)  Teorie egzemplarzy (

Medin i Schaffer 1978

Reprezentacja pojęciowa składa się z odrębnych opisów egzemplarzy danego pojęcia. 
Mogą nimi być odzwierciedlenia pojedynczych przedstawicieli kategorii (wśród nich egzemplarz prototypowy) jak i 
podzbiory wchodzące w zakres danego pojęcia.  
Przykład: reprezentacja pojęciowa psa: a) mój pies (prototyp), b) wilczur sąsiada i jamniczka sąsiadki (egzemplarze 
ważne ze względów indywidualnych), c) pozostałe napotkane psy. 
- Jeśli napotkany obiekt jest podobny do opisu któregoś ważnego egzemplarza, wówczas zostaje zakwalifikowany do 
danej kategorii i sam staje się punktem odniesienia dla następnych porównywanych obiektów. 
 

Reed (1971)

 twierdzi, że taki proces jest zbyt czasochłonny, w związku z czym kategoryzacja ma się odbywać poprzez 

ocenę podobieństwa obiektu z pierwszym napotkanym desygnatem pojęcia. Stąd niezwykle ważne mają być 
pierwsze doświadczenia z egzemplarzami danego pojęcia (chihuahua). 
 
Krytyka: 

 

Nie wiadomo, do jakiego stopnia brak podobieństwa pośród kategoryzowanych egzemplarzy jest 
tolerowany przez kategorię nadrzędną. Konsekwencją mogą być problemy z kategoryzacją. 

 

Taki proces kategoryzacji nie sprawdziłby się w naukach ścisłych, teoria egzemplarzy odnosi się raczej do 
pojęć konkretnych i naturalnych. 

 

W jaki sposób umysł przechowuje wiedzę o podzbiorze (np. psów myśliwskich) w postaci jednego 
egzemplarza?  

 

Po co przechowywać wszystkie opisy doświadczanych desygnatów, skoro punktem odniesienia miałby być 
jedynie pierwszy napotkany egzemplarz? 

 
Podsumowując:  
Teoria egzemplarzy przedstawia najmniej ekonomiczną formę trwałego reprezentowania obiektów rzeczywistych w 
umyśle. 
W podejściu eklektycznym przyjmuje się, że teorie klasyczne odnoszą się do pojęć matrycowych i abstrakcyjnych, 
natomiast teorie wzorców, szczególnie prototypów raczej do pojęć naturalnych i konkretnych.  
 

WSKAZANE :) – Tabela 3.3 na stronie 126 w podręczniku 

 
O RELACJACH MIĘDZY POJĘCIAMI 
Reprezentacje pojęciowe wiążą relacje opisane w modelu sieci semantycznej (

Collins, Quillan, 1969

). 

Przechowywane są na trwałe w pamięci w postaci zhierarchizowanej sieci, składającej się z punktów węzłowych i 
łączących te punkty relacji. W poszczególnych węzłach znajdują się reprezentacje pojęciowe.  
Właściwości charakteryzujące pojęcia przypisane są reprezentacjom pojęciowym na możliwie najwyższym poziomie 
hierarchii ogólności.  

 

Relacja semantyczna dwóch reprezentacji pojęciowych wyraża się sumą wszystkich połączeń między ich 
desygnatami desygnatami właściwościami. Im więcej połączeń, tym bliżej związane ze sobą pojęcia.  

 

Połączenia te, to ścieżki sieci, zróżnicowane pod względem wagi. Im silniejszy związek między pojęciami, 
tym łatwiej aktywują się one nawzajem. 

 

Typowi przedstawiciele pojęć oraz ich typowe właściwości związane są silniejszymi relacjami 
semantycznymi – sieć pojęciowa nie jest symetryczna. 

 

Relacje semantyczne mogą być dwojakiego rodzaju: 
połączenia pozytywne (kura jest to ptak) 
ścieżki zaprzeczające (kot nie jest to pies) 
 

a)  Teoria schematów (

Rumelhart, 1980

). 

 

Schematy są dobrze zintegrowanymi fragmentami sieci semantycznej. Jest w nich zakodowany sens 
typowej sytuacji
, do której schemat się odnosi, jak i znaczenie typowej formy zachowania, która 
powinna zostać wygenerowana w reakcji na typową sytuację.  

background image

 

10 

 

Schematy różnią się pod względem poziomów ogólności, od pojedynczych reprezentacji pojęciowych 
do rozbudowanych ideologii. 

 

Hierarchiczna struktura schematów: schematy o szerokim zakresie zastosowania zawierają mniej 
ogólne struktury. Zawierają także część rdzenną (reprezentacje wspólne wszystkim sytuacjom z tego 
zakresu) oraz część elastyczną (pozwalającą na zastosowanie schematu w konkretnej sytuacji 
bodźcowej, różnej od typowej. 

 

Generowanie brakujących elementów systemu reprezentacji pojęciowych jest również możliwe w 
ramach schematów. 

 

Podobieństwo do gry (scenariusz-aktorzy), teorii (naiwne przekonania), programów komputerowych

 

Mogą ulegać modyfikacji na drodze uczenia się. 

 
Nabywanie i modyfikacja schematów (transformacja, abstrahowanie, indukcja
- nabywanie wiedzy przez przyrost informacji (istniejące schematy rozwijane na skutek nowych sytuacji) 
- dostrajanie schematu do nowej sytuacji poprzez stopniową modyfikację subprocedur 
- całkowita restrukturalizacja (relacje rozbite i utworzone nowe na drodze abstrahowania i indukcji) 
 
Wg tej teorii, zadaniem sieci semantycznych jest umożliwienie człowiekowi szybkiej i adekwatnej reakcji na zmienne 
warunki bodźcowe na podstawie ukształtowanej wcześniej wiedzy o świecie. 
 

b)  Teoria ram (

Minsky, 1975

Dwa poziomy ram: 
wyższy – stałe elementy struktury sieciowej, niezależne od możliwego zakresu stosowalności ramy 
niższy – zawiera „okienka”, które są zapełniane przez elastyczne zmienne w zakresie różnych wymiarów 
Możliwości nietypowej transformacji w zakresie ramy wykorzystują niektóre techniki twórczego myślenia. 
 
 
 
Istotne informacje w obrębie każdej ramy:  

 

W jaki sposób ramę stosować? 

 

Jaka jest sekwencja zdarzeń? 

 

Co zrobić, kiedy oczekiwania odnośnie sekwencji nie potwierdzają się? 

Informacje te powinny być punktem wyjścia dla modyfikacji ramy. 
Rama jako struktura bardziej zależna od kontekstu sytuacji, a przez to znacznie bardziej zróżnicowana – istotny 
aspekt społeczny 
 

c)  Teoria planów, scen i tematów (

Schank, 1982

Jak to się dzieje, że nawet będąc po raz pierwszy w jakiejś sytuacji (np. napadu na bank), potrafimy jakoś 
zinterpretować dane i zrozumieć cele i czynności innych ludzi uczestniczących w zdarzeniu? Czy rzeczywiście musimy 
nabywać taką wiedzę na drodze doświadczenia? 

 

Plany – schematy zawierające wiedzę na temat abstrakcyjnych lub potencjalnych celów działania człowieka 

 

MOP-y (Memory Organization Packets) – zbiory podobnych fragmentów różnych schematów (np. 
możliwych form powitania) rozpoczynających reguły interakcje społeczne 

 

Odnoszą się do pojedynczych rodzajów podobnych do siebie scen, które mogą wystąpić w ramach wielu 
różnych schematów, iż których poszczególne scenariusze tych struktur poznawczych mogą być budowane. 

 

TOP-y (Thematic Organisation Points) – zbiory ogólnych tematów czy też motywów, których złożone 
scenariusze mogą dotyczyć. 

 
Podsumowując: 
- W koncepcji schematów wiedza deklaratywna staje się podstawą dla wiedzy proceduralnej. 
- W pozostałych koncepcjach bardziej znacząca wydaje się być wiedza proceduralna, a różnorodnośc bądź 
stereotypowość generowanych zachowań staje się podstawą do do formułowania wniosków odnośnie do możliwych 
struktur reprezentacji świata. 
 
 
 

background image

 

11 

Rozdział 4. Wiedza 
 
 
 
Wiedza – forma trwałej reprezentacji rzeczywistości, mająca postać uporządkowanej i wzajemnie powiązanej 
struktury informacji, kodowanej w pamięci długotrwałej. 
 
Podział wiedzy (

Gilbert Ryle

): 

- deklaratywna (że) – odnosi się do danych (faktów), kodowanych w pamięci trwałej. Danymi może być wiedza 
ogólna, epizodyczna, czy autobiograficzna. Jest łatwa do werbalizacji, ponieważ ma wyraźny komponent 
semantyczny. Nabywana jest dyskretnie poprzez włączenie jakiejś informacji w istniejące struktury wiedzy. 
Wydobywanie ma charakter wolicjonalny i polega na jej werbalizacji. 
- proceduralna (jak) – odnosi się do kodowanych w pamięci trwałej procedur realizacji czynności o charakterze 
umysłowym i ruchowym. Jest to specyficzna wiedza, potocznie zwana umiejętnościami (zarówno wykonawczymi jak i 
poznawczymi). Nabywana jest w toku treningu, polegającego na wielokrotnym powtarzaniu czynności. Uruchamiana 
jest automatycznie w przypadku zainicjowania dobrze nam znanej czynności. 

Burnett i Ceci

 – Wiedza może być wykreowana przez jednostkę dzięki wnioskowaniu, powiązaniu posiadanych 

wcześniej informacji i myśleniu o tych informacjach w nowy sposób. 
Metawiedza – wiedza typu „wiem, że wiem”. Dotyczy ona wiedzy o wiedzy posiadanej przez jednostkę. 

Michael Polanyi:

 wiedza ukryta („milcząca”) – nie wiemy, że ją posiadamy. 

Grafi Schacter

 – wyróżnienie pamięci jawnej i niejawnej. 

 
Wiedza ukryta – wiedza nabywana długotrwale na drodze praktyki i doświadczenia 
Wiedza niejawna – efekt mimowolnego uczeni się. Ujawnia się pomiarze pośrednim. 
 
Kryteria, jakie powinny spełniać wyniki testów na potwierdzenie obecności wiedzy niejawnej: 
- kryterium wyłączności – dana metoda ma umożliwiać dotarcie tylko do tej wiedz, która jest wykorzystywana w 
wykonaniu danego zadania. Odporność na inną, niezwiązaną z zadaniem wiedzą. 
- kryterium czujności – test mierzący zakres wiedzy jawnej ma być na tyle wyczerpujący, aby ujawnić pełną 
informację, której badani są świadomi. 
  

Cleeremans

 – wiedza jest niejawna, kiedy wpływa na przetwarzani informacji bez uświadomienia jej właściwości. 

Wiedza ta ma swoją reprezentację w pamięci trwałej, przez co może być z niej wydobywana i wykorzystywana. 
 

Wagner i Sternber

 – wiedza ukryta – „milcząca”; składnik inteligencji praktycznej. Wiedza ta nie jest bezpośrednio 

wyrażana, a jej nabywanie odbywa się dzięki indywidualnemu doświadczeniu jednostki. Jest nabywana samodzielnie, 
ma charakter proceduralny i jest stosowana w praktyce. Jest konkretna i specyficzna dla kontekstu (sic!). 
 
Podstawa rozróżnienia: niepełne uświadomienie zawartości wiedzy niejawnej – wiedza jawna jest dostępna i 
świadoma.  
 

Reber

 – podstawowym sposobem nabywania wiedzy niejawnej jest mimowolne uczenie się (proces bez udziału 

świadomych strategii uczenia się i bez zamiaru nabycia wiedzy, bezwysiłkowy).  
Paradygmaty badań nad mimowolnym uczeniem się i nabywaniem wiedzy niejawnej: 
- uczenie się sztucznej gramatyki 
- wyuczenie się sekwencji zdarzeń 
- kontrola systemów dynamicznych 
Możliwość jawnego wydobycia wiedzy niejawnej występuje tylko wtedy, gdy poziom tej wiedzy jest dość wysoki. 
Reprezentacja wiedzy za pomocą cech 
Cecha – symboliczny i dyskretny (tj. nieciągły i nieanalogowy) element umysłowej reprezentacji wiedzy o wyraźnie 
określonych granicach.  
Zarówno cechy, jak i relacje muszą działać jednocześnie, aby powstało znaczenie. 
 
Definiowanie znaczenia słów: 

Clark –

 definiowanie wymaga zbioru cech unikalnych dla konkretnego pojęcia, stworzonego za pomocą mechanizmu 

nawarstwiania się cech. Hipoteza cechu semantycznej wyjaśnia ten mechanizm: cechy pochodzą zestawu cech 

background image

 

12 

pierwotnych i są łączone w znaczenia w taki sposób, aby było ono zgodne z przyjętym użyciem słowa oraz aby dwa 
różne słowa nie miały identycznego znaczenia. 
Porównywanie znaczeń słów: 

Smith

 – dwa rodzaje cech w reprezentacji znaczenia: 

- rdzenne – składają się na rożsamosć obiektu; cechy definicyjne 
- charakterystyczne – typowe dla obiektu.  
Model dwufazowego porównywania cech: 
I faza – porównywanie zarówno cech rdzennych, jak i charakterystycznych 
II faza – porównywania wyłącznie cech rdzennych 
 

Tversky 

– podobieństwo znaczeń jest tym większe, im więcej para znaczeń posiada cech wspólnych i im mniej 

dystynktywnych.  
 
Organizacja wiedzy semantycznej 

Endel Tulving

 - pamięć semantyczna – „umysłowy słownika”, zorganizowana wiedza o symbolach werbalnych, ich 

znaczeniu i odniesieniach oraz relacjach między nimi. Zapis wiedzy ogólnej. 
Teoria wiedzy semantycznej – kodowaniu podlega treść pojęć języka, czyli ich struktura głęboka, a nie 
powierzchowna (forma informacji werbalnej). 

Collins i Quillian

 – Wiedza zawarta w pamięci semantycznej ma postać sieci, w której węzłom odpowiadają pojęcia, a 

połączeniom między nimi – ich wzajemne relacje. Sieć jest zorganizowana hierarchicznie – pojęci bardziej ogólne 
znajdują się wyżej w hierarchii. Odległość pojęć w sieci jest w ściśle związana z podobieństwem ich znaczenia. Pojęci 
o wyższym stopniu podobieństwa są reprezentowane przez węzły znajdują się blisko w sieci. 
Model zakłada dwa rodzaje relacji między pojęciami: 
- relacja przynależności do klasy – relacje obejmują pojęcia z dwóch różnych poziomów hierarchii sieci. 
- relacja predykatywna – pełni funkcję orzeczenia, zawiera wiedzę o właściwościach obiektu. Jest kodowana na 
możliwie najwyższym poziomie ogólności. 
 

Collins i Loftus

 - podstawowy czynnik decydujący o połączeniach między elementami wiedzy uznali związek 

skojarzeniowy – bardziej typowe obiekty są szybciej identyfikowane. Struktura wiedzy ma postać sieci, w której 
węzłom odpowiadają pojęcia, podczas gdy ich etykiety werbalne są reprezentowane w postaci wewnętrznego 
leksykonu. Im pojęcie jest bogatsze semantycznie, tym więcej połączeń między węzłami, a co za tym idzie tym 
większa siła skojarzeniowa danego związku.  
Proces przywoływania wiedzy odbywa się dzięki rozprzestrzeniającej się aktywacji.  
 
Organizacja wiedzy proceduralnej 
Systemy reguł – wiedza jest poznawczo reprezentowana za pomocą zestawu reguł. Reprezentacja tego typu pozwala 
na tworzenia procedur działania. 
Reguła – składa się z warunku wyznaczającego zbiór właściwości, które muszą być spełnione, aby uruchomić daną 
czynność i samej czynności, czyli zbioru produkcji. 
Zasada specyficzności reguł – prymat ma reguła bardziej wyspecjalizowana. 
Zasada niepowtarzalności reguł – w procesie korzystania z wiedzy proceduralnej może mieć udział specyficzny bufor 
pamięci, który zawiera pewien zbiór reguł, które zostały użyte w trakcie bieżącego zadania.  
 
Organizacja wiedzy modelach ACT, ACT* i ACT-R 

John Anderson 

Wiedza może mieć postać sądów, ale również obrazów, a nawet następstwa czasowego. 
Wiedza deklaratywna – reprezentowana jest w postaci węzłów (jednostek informacji) i relacji między nimi 
(powiązania miedzy jednostkami). Połączenia między węzłami charakteryzują się określoną silą związku 
skojarzeniowego. Aktywacja może być wywołana albo dzięki zewnętrznym bodźcom, albo dzięki przywołaniu 
informacji z pamięci. Elementy często przywoływane są bardziej aktywne. Aktywacja jest limitowana pojemność 
pamięci roboczej i czasem. Zatem o charakterze przetwarzania decyduje struktura oraz sprawność mechanizmu 
aktywacji. 
Wiedza proceduralna – reprezentowana w postaci reguł aplikowanych w celu przetwarzania wiedzy deklaratywnej, 
oraz w postaci informacji zawartych w buforach wyspecjalizowanych modułów (wzrokowego, słuchowego i 
motorycznego) 

background image

 

13 

Efekt wachlarza – połączenia odchodzące od każdego z węzłów sieci przypominają wachlarz. Na tym efekcie oparto 
wyjaśnienie interferencji, kiedy to jedna z konkurencyjnych informacji pozostaje niedostępna. 
 
Nabywanie wiedzy 
Kodowanie informacji – odbywa się w każdym magazynie pamięciowym. 
Zapamiętywanie – dotyczy pamięci krótkotrwałej i długotrwałej. 
Nabywanie wiedzy – pamięć długotrwała. 
 
Nabywanie wiedzy semantycznej 

Collins, Loftus

 – nabywanie wiedzy polega na tworzeniu nowych węzłów oraz łączeni zarówno nowych, jak i 

istniejących za pomocą nowych połączeń. Nowy węzeł zostaje wbudowany w strukturę sieci poprzez powiązanie go z 
innymi węzłami.  

Anderson

 – jednostki wiedzy są tworzone dzięki regułom produkcji, aplikowanym do informacji pochodzącej ze 

środowiska. Wiedza proceduralna służy do budowania trwałych reprezentacji wiedzy deklaratywnej. 
 
Nabywanie wiedzy proceduralnej 

Anderson

 – proceduralizacja – przekształcanie jawnej wiedzy deklaratywnej w niejawne procedury działania. 

Zachodzi w trzech etapach: 
1. Etap deklaratywny – jednostka otrzymuje zestaw instrukcji o określonej umiejętności i sposobie jej nabywania. 
Tworzone są procedury działania.  
2. Etap kompilacyjny – polega na ćwiczeniu reguł dostarczonych i wygenerowanych dzięki procedurom interpretacji. 
Jest wysiłkowy i podlega świadomej kontroli. Prowadzi do zwiększenia tempa wykonywanie czynności, 
wyeliminowania pośrednictwa wiedzy deklaratywnej, a co za tym idzie konieczności werbalizacji oraz połączenia 
wielu kroków w jedną, autonomiczną procedurę. 
Kompozycja – łączenie dwóch lub więcej procedur w jedną. 
Automatyzacja – skomponowane w większe całości procedury w coraz mniejszym stopniu obciążają pamięć roboczą. 
Wyeliminowanie udziału wiedzy deklaratywnej. 
3.Etap proceduralny – automatyczny i niemal bezwysiłkowy. 
Proceduralizacji wiedzy towarzyszy: 
- generalizacja – uogólnianie nabywanej wiedzy proceduralnej na szerszą klasę sytuacji. 
- różnicowanie – odróżnianie warunków uruchomienia różnych procedur. 
 
Nabywanie wiedzy niejawnej 

Reber 

– wiedza niejawna nabywana jest na drodze uczenia się mimowolnego, rozumianego jako proces poznawczy, 

w wyniku którego jednostka nabywa wiedzę nie jawną niezależnie od świadomych intencji. 
 
Nabywanie wiedze odbywa się niezależnie od świadomej kontroli albo bez udziału wiedzy werbalnej o wszystkich 
nabywanych regułach. 
 

Sternberg 

- transformacja jawnej wiedzy o procedurach w „milczącą” wiedzę proceduralną; wiąże się z pamięcią semantyczną 
- niejawne uczenie się reguł proceduralnych na podstawie osobistych doświadczeń; wiąże się z pamięcią epizodyczną 
 
Wiedza ekspercka  
- ekspert posiada bardzo obszerną wiedzę, ale jest ona ograniczona do pewnej dziedziny.  
Właściwości wiedzy eksperckiej: 
- organizacja – wiedza jest uporządkowana na wielu poziomach: od poziomu elementarnych składników po 
wyabstrahowane struktury wyższego rzędu. 
 /struktura wydobycia – powiązanie napływającej informacji z zestawem wskazówek/ 
- proceduralizacja – wysoka sprawność wykonywania procedur przy utrzymaniu zdolności ich werbalizacji 
- schematy rozwiązywania problemów – zawierają abstrakcyjną wiedze pozbawioną kontekstu, w którym została ona 
pozyskana. Łatwo podlegają transferowi pomiędzy różnymi kontekstami.  
/efekt eksperta – polega na większej sztywności ekspertów w rozwiązywaniu nierutynowych problemów/ 
Nabywanie wiedzy eksperckiej  

Glaser: 

- etap wsparcia zewnętrznego – nowicjusz otrzymuje wsparcie od osób posiadających wiedzę 

background image

 

14 

- etap przejściowy – rozwijanie umiejętności monitorowania i regulacji własnych czynności oraz identyfikowanie 
kryteriów coraz wyższego poziomy wykonywania zadania. 
- etap samoregulacji – pełna kontrola nad nabywaniem wiedzy i wykonywaniem zadań. 
 

Schaumacher i Czerwiński: 

- faza przedteoretyczna – wydobywanie przykładów z pamięci opartych na powierzchownym podobieństwie cech 
danej sytuacji  
- faza doświadczeniowa – odkrywanie związków przyczynowych obowiązujących w systemie. Nabywanie wiedzy 
eksperckiej.  
- faza ekspercka – dokonywanie abstrakcji na najwyższym poziomie, możliwość transferu wiedzy. 
 
 
Rozdział 5. Uwaga i świadomość 
 
 
Uwaga 
-powiązana ze świadomością 
-selektywna( selekcja dotyczy spostrzegania i wyższych procesów poznawczych, myślenia) 
-pozwala na koncentracje na ważnych sygnałach 
-konieczna do przystosowania się organizmu do środowiska. 
Funkcje uwagi: 

1.  Selekcja źródła informacji 

Wybór sygnału spośród szumów, ignorowanie dystraktorów. 

2.  przeszukiwanie pola percepcyjnego ( przez kodowanie cech i selektywna integracja właściwości 

poszukiwanego obiektu w postać. 
Przeszukiwanie: 
-proste( 1 cecha), równoległe 
-koniungcyjne( np. ruch i kolor), dłuższe i szeregowe(

Treisman, Gelade

)>cechy priorytetowe( przetwarzane  

jako pierwsze )np. ruch, kolor, głębia 
 ale!!cecha niepriorytetowa może przyciągać takim samym stopniu jak priorytetowa! 

3.  przedłużona koncentracja- dłuższe monitorowanie otoczenia(czujność) 

paradygmat zegara gdzie notuje się nieuchronny spadek koncentracji-energii (

Mackworth

4.  Podzielność uwagi 
5.  Przerzutność –przełączenie się między obsługiwanymi niezależnie procesami przetwarzania info. 

*paradygmat słuchania dychotycznego( cocktail party problem, 

Cherry

)   

*technika podążania(shadoving) wykorzystywana w badaniach 

Broadbenta Treisman i Moray’a

 

>koszty poznawcze w postaci dłuższego czasu wykonania, przy zahamowywaniu jednego procesu a uruchamianiu 
alternatywnego. 
*paradygmat przełączania( task switching)-efekt podłogowy????do sprawdzenia 
 
TEORIE 

 

Filtr uwagi  

Redukcja informacji docierających do systemu odbywa się na wejściu sensorycznym, poprzez zablokowanie 
wszystkich źródeł info-prócz jednego 
!to czego filtr nie zaakceptuje ulega degradacji zależy od modalności zmysłowej(wzrok, słuch itp.) 
-->przejście przez filtr oznacza dalsze przetwarzanie info na głębszym poziomie-semantycznym a w rezultacie daje 
świadome doznanie 
 Koncepcja ta doczekała się różnych odmian: 
~

Broadbent

 Y 

Wyróżnił dwa kanały doprowadzające info( sensoryczne) i jeden dalszy kanał semantyczny. Uwaga przełącza się 
pomiędzy dwoma kanałami na wejściu selekcjonując info pod względem właściwości fizycznych: intensywność, 
kolejność sekwencji bodźców) 
*zasada ,,wszystko albo nic” komunikat nieprzetwarzalny ulega zapomnieniu(pozostaje po nim jedynie ślad 
fizyczny np. rozpoznanie płci spikera w kanale ignorowanym(słuchanie dychotyczne) ale nierozpoznanie treści. 
Krytyka: wiele wskazuje na to, że decyzje o zaakceptowaniu info przez filtr podejmowane są na podstawie znaczenia 
sygnału 

background image

 

15 

=>wybór filtra sensoryczny/semantyczny zależy od dostępności czasu( Gray, Wadderburn, prezentowanie ciągów cyfr 
i sylab naprzemiennie. Odpamiętywane są osobno: litery,liczby) 
~

 Treisman

 

uwaga przełączana jest z jednego kanału sensorycznego na drugi aby śledzić treść komunikatu. Filtr skleja info z 
kanału ważnego i ignorowanego, gdy taki zlep ma sens. 
>związki iluzoryczne: połączenie wbrew instrukcji 2 odrębnych elementów sensorycznych różnych źródeł 
sensorycznych (zbitek dwóch słów) 
=>filtr uwagi otwierany jest od środka przez informacje, które przedostały się przez filtr, są przetwarzane 
semantycznie wzmacniają dane próbujące się tam przedostać 
 propozycja Treisman została nazwana modelem ,,osłabiacza” gdyż info niepowiązane z wcześniej przetworzonymi są 
słabiej obrabiane. 

Broadbent & Gregory

 

proponują koncepcje dwóch filtrów( model poprawiony): sensorycznego sensorycznego semantycznego 
 ~ 

Deutsch & Deutsch

 

według ich koncepcji decyzja o wzmocnieniu/osłabieniu sygnału jest podejmowana dopiero po przekroczeniu prze 
info progu świadomości- do tego momentu bodźce przetwarzane są jednakowo głęboko. Zasada koniecznej 
świadomości została jednak szybko odrzucona 
 
!!spory pomiędzy modelami wczesnej i później selekcji. 
 

Johnson

 

zaproponował istnienie jednego filtra, ale zmieniającego charakter w zależności od poziomu przetwarzania-
elastyczność 
=>im wyższy poziom przetwarzania tym większa pojemność filtra 
=>możliwość działania zasady przetargu między szybkością a poprawnością 
 
Filtr na poziomie sensorycznym działa wraz z zasadą wszystko albo nic. Na poziomie semantycznym wraz z zasadą 
osłabiacza a na najgłębszym poziomie (odniesienie do ,,ja”)z zasadą koniecznej świadomości i zasady przetargu. 
Ograniczenia: analiza i selekcja dalej odbywa się tylko w jednym kanale przetwarzania. 
 

 

Teorie przeszukiwania pola percepcyjnego: 

Treisman

 i teoria ,,integracji cech” sygnały docierają do ,,map lokacyjnych”(kodują sygnał w mapach cech: kolor, 

kształt itp.) wykrywają one własności bodźców wykrywają czy atrybut jest obecny w obiekcie w polu wzrokowym 
według koncepcji zadaniem uwagi jest: 
-wybór właściwych map lokacyjnych co prowadzi do selekcji właściwych map cech następuje integracja 
zakodowanych wcześniej cech rozpoznanie obiektu 
selekcja= aktywacja poszczególnych cech i ich integracja w obiekt 
>proces przeszukiwania pola percepcyjnego ma charakter szeregowy( gdy mamy do czynienia z koniunkcjami cech 
>ma charakter równoległy, gdy występują cechy proste 
krytyka teori Triesman 
=>im trudniejsze odróżnienie sygnału spośród szumów/dystraktorów tym większe prawdopodobieństwo wystąpienia 
procesu szeregowego!! 
=> to czy proces będzie szeregowy/równoległy zależy od podobieństwa sygnału do dystraktora, a nie liczby 
integrowanych cech. ( 

Bergen, Juliusz

)( 

Duncan

), potwierdzone w badaniach Słabosz i Szymury. 

=>bodźce poruszające się wraz z sygnałem wywołują większą interferencję niż dystraktory statyczne 
=> w przypadku cech priorytetowych możliwe jest szybkie przetwarzanie bodźcazachodzi we wczesnej fazie 
selekcji(przeduwagowej)tylko wtedy, gdy cecha rzeczywiście wyróżnia obiekt w polu wzrokowym( przyjmuje 
wartości dystynktywne). 
~

Treisman

 (zmodyfikowana wersja) 

właściwości priorytetowe są kodowane szybciej w odpowiednich mapach cech. 

 

Model,, dwufazowy” równoległej i szeregowej integracji cech: 
-proces odgórny, aktywizacja właściwych map cech, 
-oddolny, automatyczna dezaktywacja pozostałych cech 
!!model akceptowany do dziś!! 
 

background image

 

16 

~

Theeuwes 

 

 model uwagi podążającej za najbardziej znaczącą( dystynktywną) prezentacją stymulacji 
Najpierw polu uwagi wyodrębniamy element o najwyrazistrzych cechach 
 

 

Teorie przedłużonej koncentracji 

Skupianie uwagi przez dłuższy czas powoduje spadek czujności( obniżenie poprawności, rejestruje się dłuższy czas 
wykonania zadania) 
 
teoria detekcji sygnałów (

Green, Swets

) 

model odróżniania sygnału od szumu. Idealny obserwator zauważy każdy sygnał( reakcja –trafienie) i zawsze 
zignoruje szum/dystraktory( prawidłowe odrzucenie. Możliwe jest jednak popełnienie błędów: 
- FA zareagowanie na szum/dystraktory 
-OM zignorowanie sygnału 
Obserwator przy rozwiązywaniu może podejmować różne strategie to znaczy skłaniać się ku FA lub OM np. wtedy 
gdy konsekwencje popełnienia błędów FA są mniejsze niż OM. 
 
Każdy ustala sobie kryterium decyzyjne= próg reaktywności 
Im wyższy próg tym maleje prawdopodobieństwo FA ale rośnie OM 
=>z upływem czasu obserwuje się jednak po prostu generalny wzrost liczby błędów. 
Idealny obserwator ma niższe kryterium decyzyjne dla bodźców prawdopodobnych niż dal tych mniej 
prawdopodobnych!!! 
*eksp 

Baddeley’a

 -nieadekwatne oczekiwania co do prawdopodobieństwa wystąpienia sygnału są przyczyną spadku 

czujności. 
=>

Baker

 , zależność między subiektywnym prawdopodobieństwem pojawienia się sygnału a wielkością przedziału 

czasowego jest krzywoliniowa -odwrócone,,U” 
 trening przedłuża koncentrację 
spadek czujności występuje w wyniku zmniejszenia się wrażliwości na bodziec przy dłuższej jego ekspozycji w 
czasie 
*Poziom wykonania zadania zależy od aktualnego stanu energetycznego organizmu( prawo 

Jerkesa-Dodsona

 , 

odwrócone,, U” 
>introwertycy łatwiej radzą sobie monotonnych i łatwych zadaniach na czujność uwagi 
>ekstrawertycy łatwiej natomiast w zadaniach złożonych i stymulujących. 
 
=>hipoteza zmieniającej się aktywacji 

Daviesa i Parasuramana 

 

 

Teorie podzielności 

Badania prowadzone w paradygmacie słuchania dychotycznego 
>

Bernstein

 i badania nad dwiema czynnościami wykonywanymi niezależnie, przy braku ponoszenia kosztów 

poznawczych( widzenie i słuchanie)potwierdziły jej założenia. Okazało się ponadto, że gdy obie modalności dotyczą 
tego samego zadania info słuchowe skraca czas reakcji na jednocześnie prezentowany bodziec wzrokowy. 
=> 

Duncan

- koncepcja uwagi ,,ukierunkowanej na obiekt”. Oznacza to iż podzielność uwagi w zakresie jednego 

zadania lub obiektu jest możliwa bez ponoszenia dodatkowych kosztó( błędów, wydłużonego czasu reakcji) 
=>

Allport i współpracownicy

 ,,multikanałowa koncepcja selektywnej uwagi” 

według nich uwaga funkcjonuje jako zestaw niezależnych kanałów zawierających własne filtry( są to mechanizmy 
zdolne do niezależnej selekcji) 
-wersja poprawiona: 
niezależność kanałów selekcyjnych zależy od tego czy dwa konkurencyjne zadania wymagają różnych receptorów, 
reprezentacji umysłowych i efektorów. 
*uwaga może działać jak zbiór niezależnych modułów to, który z nich zostaje użyty jest zdefiniowane na wejściu 
moduł- każdy ma wyspecjalizowany podsystem własnymi zasobami, dlatego możliwe jest przetwarzanie 
równoległe. Są one jednak ograniczone to znaczy, że tylko jeden może przetwarzać info słuchową, tylko jeden info 
wzrokową itp. 
ograniczenia zatem wynikają nie z istnienia jednego filtra lecz z limitowanej dostępnośći modułów. 
 
 
 

background image

 

17 

~

Kahneman

 - teoria zasobów 

uwaga może działać tylko przy szeregowym jednokanałowym przetwarzaniu. Jeśli dochodzi do przetwarzania 
wielokanałowego to muszą pojawić się koszty jednoczesności(zakłócenia przebiegu jednoczesnych procesów selekcji, 
analizy info) ( str 213, graficzny model-warto zerknąć). 
=>każdy system poznawczy ma ograniczoną pulę zasobów- energię mentalną. Są one przydzielane różnym procesom( 
alokacja zasobów). Zajmuje się tym ,,nadrzędny mechanizm selekcjonujący” jest on centralnym dyspozytorem 
energii( Nęcka, Szymura)!! 
Dlaczego powstają koszty: 
Interferencja strukturalna( 

Allport)

 czy interferencja zasobowa( 

Kahneman

) trudne do rozstrzygnięcia!! 

Uwaga jest konsruktem jednorodnym! 
Stanowisko pośrednie między koncepcjami parcjalistycznymi a holistycznymi prezentują m.in. Hirst Hist. 

Kalmar

uwaga może funkcjonować jako zestaw do pewnego stopnia niezależnych zasobów specyficznych. Jeśli 

wymagania ze strony jednocześnie realizowanych różnych procesów nie przekraczają możliwości systemu do 
przydzielenia tych zasobów to uwaga funkcjonuje jako system niezależnych podsystemów zasobowych. 
=>Nęcka i Szymura,( DIVA) ich badania wskazują na to, że uwaga jest mechanizmem jednorodnym. W zadaniach 
trudnych system zaostrza politykę przydzielania zasobów, przy zadaniach łatwych poszczególne składniki systemu 
uzyskują częściową autonomię! 
 

 

Teorie przerzutności 

*hipoteza przełącznika( Nęcka) przy zadaniach wykonywanych jednocześnie filtr przełącza się między dwoma 
zadaniami( naprzemiennie jedno jest analizowane a drugie ignorowane). Jeśli dokonuje się to dostatecznie szybko, 
koszty ograniczają się jedynie do czasu. Jeśli przełączanie się jest zbyt wolne lub rzadkie, pojawiają się koszty 
poprawności( FA, OM) 

Rogers & Monsell

 w przełączaniu biorą udział dwa procesy: 

-odgórne: wzbudzane wewnętrznie, przygotowują odpowiednie operacje umysłowe, przygotowawcze, działają 
proakywnie- uruchamiane jeszcze przed bodźcem, mają charakter kontrolny 
oddolne: wzbudzane zewnętrznie, działają reaktywnie jako odpowiedź systemu na zaistniałą sytuację, dokańczają 
rozpoczęty proces, charakter automatyczny. 
 
*zestaw zadaniowy- kieruje procesem od skupiania uwagi do odpowiedzi motorycznej. Jest to rodzaj modułu 
funkcjonalnego przechowywanego w pamięci. 
 
RSI( response-stimulus interval)- przerwa między zadaniami konieczna do zredukowania kosztów przerzutności. 
 jeśli za powstawanie kosztów miałyby odpowiadać jedynie procesy kontrolne to powinny one ulec całkowitej 
redukcji na skutek podania wskazówki wyprzedzającej lub wystarczająco długiej( RSI) w rzeczywistości redukcja 
kosztów nigdy nie jest zupełna, może być jedynie minimalizowana.--> oznacza to że w generowaniu kosztów 
przełączania się biorą udział również procesy automatyczne( wzbudzane oddolnie przez stymulację zewnętrzną). 
>takim przykładem działania procesów automatycznych jest efekt ,,poprzedzania pozytywnego”szybsze 
przetwarzanie w kolejnym zadaniu z serii tej samej stymulacji co w poprzednim zadaniu lub podobnej. 
> za powstawanie kosztów odpowiedzialna jest interferencja proaktywna: przy nowym zadaniu utrzymująca się 
aktywacja z poprzedniego zadania utrudnia wzbudzenie nowej. Aby ją zredukować potrzebna jest odpowiednio długa 
przerwa między zadaniami 
> badania 

Allporta

koszty przerzutności wiążą się z wykonywaniem wcześniejszego zadania nie zadania nadchodzącego 
 badanie 

Śmigasiewicz, Szymury i Słabosz

 nie potwierdziły tej tezy(str 220).wielkość kosztów przerzutności zależy 

od poziomu trudności zadania. 
*koszty rezydualne –koszty ujawniające się mimo wszystko, ale nie podlegające redukcji. Źródłem takich kosztów 
mogą być: 
>źródłem kosztów rezydualnych może być mechanizm inhibicji(odrzucenie) gdyżprzejście do kolejnego zdania z serii 
wymaga uruchomienia dwóch procesów:  
-wzbudzeniu aktywacji nowego zestawu zadaniowego 
-zahamowaniu aktywacji zestawu już nieprzydatnego. 

 Mayr i Keele

 wykazali, aktywacja modułu potrzebnego do realizacji zadani wcześniej odłączonego trwa dłużej 

(ABA) niż aktywacja nowego modułu(ABC) – analogia do zjawiska poprzedzania negatywnego. 
 
 

UWAGA, PERCEPCJA, NIEŚWIADOMOŚĆ 

background image

 

18 

 
procesy przeduwagowe dotyczą obróbki info na wczesnych etapach( uwaga jest tu obecna) 
!!obecnie uważa się że uwaga selekcjonuje info nawet gdy jej treść nie przedostaje się do świadomości 
> kryterium świadomego przetwarzania(Velmans) : 
zdawanie sobie sprawy przebiegu procesu poznawczego i dysponowanie wiedzą o rezultatach tego procesu. 
Świadomość procesu ma ponadto wpływ na jego przebieg 

Baar

 jest zdania że proces nieświadomy to taki gdzie nie wyzwala się subiektywne doświadczenie, nie jest możliwe 

jego zrelacjonowanie ale ujawniają się skutki jego działania. 
bodziec podprogowy: jest na tyle silny, iż pobudza org sensorycznie, ale zbyt słaby by go świadomie zauważyć. 
Działa powyżej absolutnego progu percepcji, ale poniżej progu świadomości. 
>

Mendelson

 i anagramy: 

efekt nieuświadomionej podpowiedzi np. słowo zapamiętane w uprzednim zadaniu eksperymentu pomaga 
rozwiązać zadanie z anagramami. Wielkość efektu zalezy od modalności zmysłowej( większy przy modalności 
wizualnej) 
bodźce peryferyczne: bodźce znajdujące się na peryferiach uwagi, przetwarzane są słabo, na płytkim poziomie, 
mało analizowane semantycznie. 
W zauważeniu bodźca peryferycznego pomagają cechy priorytetowe( kolor ruch)jeśli są dystynktywne(str 223) 
>

Dallas i Merikle

 

reakcja na słowo kanale ważnym( samochód) może być przyspieszona gdy w kanale ignorowanym pojawi się słowo 
semantycznie związane( kierowca). Czas reakcji wydłuża się natomiast gdy w kanale ignorowanym pojawi się 
synonim słowa( auto). 
 
Poprzedzanie: 
Bodziec wcześniejszy( pryma)wpływa na przetwarzanie bodźca docelowego! 
Paradygmat* 
>poprzedzanie repetytywne: krótka prezentacja tego samego bodźca przed tym jak ma on być za chwilę rozpoznany 
> poprzedzanie semantyczne: pryma nie jest identyczna z bodźcem docelowym, ale jest z nim semantycznie 
związana( np., bibliotekaksięgozbiór) 
>*gdy bodziec prymujący ułatwia przetworzenie b.docelowegopoprzedzanie pozytywne 
>poprzedzanie podprogowe(sublimalne):pryma działa w bardzo krótkim czasie-badany jej nie zauważa, ale 
obserwujemy zmianę w przetwarzaniu bodźca docelowego(!efekt ten można uzyskać również przez prezentacje 
bodźca o bardzo małej intensywności) 
>poprzedzanie peryferyczne: bodziec poprzedzający jest wystarczająco intensywny, trwa długo ale osoba jest 
nieświadoma jego oddziaływania. 
>poprzedzanie afektywne: przed bodźcem właściwym prezentowany jest bodziec o zabarwieniu emocjonalnym-
bodziec docelowy jest przez to inaczej interpretowany 
>poprzedzanie sekwencyjne
pryma maskabodziec docelowyreakcja 
*paradygmat  prymowania niesekwencyjnego( str. 226) 
 
  
 
Rozdział 6. Kontrola poznawcza 
 
 
 
Kontrola poznawcza- zdolność systemu poznawczego do nadzorowania i regulowania własnych procesów 
poznawczych, poznawczych także do planowanego sterowania ich przebiegiem. 
 
Trzy postaci kontroli poznawczej (

Chuderski

): 

- monitorowanie 
- regulacja 
- sterowanie 
 
 
 

background image

 

19 

Automatyzacja- nabywanie wprawy na skutek treningu 
→ trening jednorodny- ta sama reakcja jest odpowiedzią na ten sam układ bodźców 
→ trening niejednorodny- ten sam typ reakcji przy częstej zmianie bodźców 
czynności automatyczne są szybkie, bezwysiłkowe, pozbawione kosztów poznawczych; realizowane bez namysłu i 
poza kontrolą świadomości; balistyczne (rozpoczęta czynność musi zostać ukończona) 
 
Procesy nieautomatyczne dzięki nabywaniu wprawy mogą stać się procesami zautomatyzowanymi (wtórnie 
automatyczne
)- takie procesy są poza kontrolą świadomości, zmniejszają wysiłek umysłowy, są intencjonalne oraz 
celowe  
• 
przeciwieństwem są procesy pierwotnie automatyczne, które są bezwysiłkowe, poza kontrolą świadomości, 
nieintencjonalne 
↑ procesy słabo i silnie automatyczne 
 

Schneider i Shriffin

 teoria kontinuum (efekt nabywania wprawy przesuwa się od bieguna kontroli w stronę 

automatyzmu) 
- model procesów automatycznych i kontrolowanych 
  → system poznawczy podzielony na dwie ścieżki 
        pierwsza wymaga kontroli ze strony uwagi, pojawia się w przypadku pojawienie się  
          nowych bodźców i braku strategii postępowania 
       • druga jest związana z automatyczną detekcją układu bodźców, jest poza kontrolą, czynności zapisane są w 
pamięci długotrwałej, są niemodyfikowalne 
 

Schneider i Shriffin

 podzieli procesy kontrolowane na dwa rodzaje 

procesy jawne (dostępne świadomości) 
   intencjonalne przeszukiwanie świadomości 
   • niewydajne, wolne 
procesy zawoalowane (niedostępne świadomości) 
   porównywanie elementów w pamięci świeżej 
  szybkie, możliwe zmiany na skutek instrukcji werbalnych lub nabywania wprawy  
 
Procesy automatyczne są nieświadome i jednorodne, wymagają jedynie minimalnej ilości zasobów (wysiłku 
mentalnego) 
 
Różnica w zakresie stopnia automatyzacji 
- warunek spójny 
- warunek niespójny (szybka identyfikacja)  
Proces automatyzacji wymaga długiego treningu, procesy kontrolowane mogą stać się automatycznymi. 
Interakcje procesów automatycznych i kontrolowanych nie musi wyzwalać efektów interferencji. 
Możliwy jest transfer wprawy w zakresie zautomatyzowania czynności z jednego zestawu bodźców na drugi. 
Możliwość kontroli procesów automatycznych- modyfikacja w takcie ich przebiegu (

Logan, Tzelgov

) np. przerwanie 

pisania na maszynie, kiedy się popełni bład 
 
Paradygmat SYGNAŁU STOP 
Pisanie na maszynie z presją czasową, w nieprzewidzianym momencie zaprzestanie czynności 
- zgodnie z teorią egzemplarzy badani tym szybciej zahamują czynność im krótszy będzie interwał czasowy pomiędzy 
bodźcem wzbudzającym a bodźcem stop. Możliwe jest także powstrzymanie czynności przy dużych interwałach 
czasowych. 
 
Paradygmat EFEKTU STROOPA 
Istotą efektu jest utrudnienie w przetwarzaniu bodźców niespójnych w porównaniu z bodźcami spójnymi 
- zahamowanie dobrze wyuczonej czynności i zastąpienie jej inną niewyuczoną 
- efekt interferencji 
  
Osoby badane czytają słowa spójne lub niespójne albo nazywają kolor atramentu użyty do napisania słów spójnych 
lub niespójnych. Czytanie słów zwykle wymaga mniej czasu niż nazywanie kolorów, ponieważ jest czynnością silnie 
zautomatyzowaną. Jeśli chodzi o nazywanie kolorów czynność ta jest zwykle znacznie dłuższa w przypadku słów 
niespójnych w porównaniu ze spójnymi. 

background image

 

20 

 
Procesy automatyczne nie są całkowicie balistyczne. Siła automatyzmu zależy od proporcji bodźców 
np. można zredukować efekt Stroopa zmniejszając liczbę kolorów 
 

Modyfikacje zadania 

Stroopa

a)  Stroop emocjonalny – nazywanie koloru jakim napisano słowo kojarzące się z lękiem albo rzeczami lub 

sytuacjami o negatywnym zabarwieniu emocjonalnym 

b)  Stroop rozproszony – nazywanie koloru obiektu występującego w towarzystwie wyrazu oznaczającego 

zupełnie inny kolor 

c)  Stroop figuralny – nazywanie figury stanowiącej tworzywo, a ignorowanie figury głównej, osoby badane 

widzą figurę zbudowaną z innych figur 

d)  Stroop kierunkowy – badani mają za zadanie reagować za pomocą odpowiedniego klawisza kursora 

klawiatury na strzałkę pokazującą kierunek przeciwny niż klawisz 

 

Teoria rywalizacji egzemplarzy (

Logan

) <teoria przypadków> 

uwzględnia możliwość kontroli procesów automatycznych, które mają właściwości: 
- są autonomiczne (uruchamiane i wykonywane nieintencjonalnie) 
    detekcja bodźca powoduje przywołanie informacji deklaratywnych i proceduralnych 
- można je wykorzystywać intencjonalnie (kontrola do momentu uruchomienia reakcji    
  motorycznych) 
- dostępność do pamięci długotrwałej 
- brak introspekcyjnej świadomości przebiegu 
- bezwysiłkowość 
 
Najważniejszym konstruktem tej teorii jest pojęcie egzemplarza- reprezentacja bodźca (S) i sposobu reakcji (R). 
Egzemplarz przechowywany jest w postaci wiedzy trwałej 
Pojawienie się bodźca może spowodować jeden z dwóch sposobów przetwarzania informacji 
- zastosowanie ogólnego algorytmu (automatyczna procedura) 
- znanego z przeszłości sposobu poradzenia sobie z bodźcem (kontrolowane przetwarzanie) 
 
Egzemplarze podlegają procesowi nabywania 
→ pojawienie się bodźca powoduje zapis w pamięci 
→ odmienne pojawienie się tego samego bodźca powoduje ukształtowanie się odrębnej 
      reprezentacji egzemplarzowej 
→ gromadzenie egzemplarzy jest tożsame z nabywaniem wprawy 
→ początkowe efekty gromadzenia egzemplarzy gwałtownie skraca czas reagowania, dalsze 
     ćwiczenia skracają go w coraz mniejszym stopniu 
 
Nabywanie wprawy jest związane z wtórna automatyzacją  
Automatyzmy związane są z dostępnością egzemplarzy 
 
Dzięki automatyzacji uwalniane są zasoby systemu, które można przeznaczyć na wykonywanie innych zadań, co 
przyspiesza i większa poprawność reagowania, redukuje efekt przetargu między poprawnością a szybkością  
 
Efekt przetargu między szybkością a poprawnością 
z presją czasową  
im płytszy poziom analizy bodźców tym szybszy i mniej poprawny proces selekcji informacji, na głębokich poziomach 
przetwarzania informacji analizy selekcyjne są znacznie bardziej złożone, wymagają więcej czasu, ale w konsekwencji 
są bardziej poprawne 
 
zwiększona szybkość powoduje wzrost błędów, jednakże efekt ten ulega sukcesywnemu zmniejszaniu w każdej 
kolejnej próbie tego samego testu, najbardziej istotne różnice na początku (Szymura, Słabosz) 
 
Negatywne konsekwencje automatyzacji- deproceduralizacja 
 
 

background image

 

21 

Trzy stadia nabywania automatyzacji 
- poznawcze (zrozumienie i przyswojenie instrukcji) 
- asocjacyjne (proceduralizacja sposobu wykonania czynności) 
- autonomiczne (uzyskanie statusu autonomicznego, przebieg bezwysiłkowy) 
 
Innym negatywnym zjawiskiem jest transfer negatywny – dobrze wyuczona czynność utrudnia wykonanie czynności 
podobnej, ale nie tożsamej z poprzednio wyuczoną 
 
 
  • Hamowanie 
Hamowanie
 jest mechanizmem kontrolnym polegającym na, z jednej strony, utrudnieniu dostępu do informacji 
nieistotnych, a z drugiej, na powstrzymaniu niepożądanej w danym momencie aktywności neuronalnej, mentalnej lub 
behawioralnej. 
Podstawowym zadaniem hamowanie jest blokowanie pobudek zarówno zewnętrznych, jak i wewnętrznych. 
Hamowanie jest konstruktem niejednorodnym. 
Hamowanie ze wzbudzeniem alternatywnej reakcji motorycznej jest trudniejsze niż proste powstrzymanie 
dominującej reakcji (warunek stop- zmiany, warunek stop- ogólny) 
Najtrudniejsze jest hamowanie selektywne- powstrzymanie tylko jeleniej z dwóch możliwych do wzbudzenia reakcji 
motorycznych (stop- selektywny) należy, bowiem zablokować energię potrzebną do wykonania ruchu, ale nie każdego 
ruchu, a jedynie takiego, który zostanie centralnie wskazany do zablokowania. 
• Odporność na dystrakcję 

Francolini i Egeth (1980) 

twierdzą, że w pewnych warunkach proces odrzucania dystrakcji może być całkowicie 

skuteczny dzięki przestrzennej separacji konfliktowych aspektów bodźca: 
- udane próby redukcji efektu Stroopa  
- udane próby redukcji efektu flankerów  
Bodźce zakłócające przetwarzanie poza ogniskiem uwagi są w stanie wzbudzić reakcję konkurencyjną względem 
wykonywanej czynności.  
 
W Teście flankerów badani reagują na literę pojawiającą się w centrum ekranu. Litera ta jest otoczona przez dwa 
bodźce zakłócające (flankery), którymi są inne litery pojawiające się po obu stronach sygnału w jednym rzędzie. 
Flankery mogą być tożsame z sygnałem lub też mogą być zupełnie innymi literami. Zadania testowe różnią się w 
zakresie przestrzennej lokalizacji bodźców zakłócających (bliżej lub dalej od sygnału).  
- Czas reakcji na sygnał znacznie się wydłuża, gdy pojawiają się flankery, w porównaniu do sytuacji, gdy ich nie ma lub 
są tożsame z sygnałem. Wydłuża się tym bardziej, im bardziej podobne do siebie są sygnały i dystraktory oraz im 
mniejsza jest ich wzajemna odległość (Eriksen i Eriksen) 
[np. C  A  C / CCC/CAC/C  C  C] 
 
Efekt flankerów wynika z konieczności zahamowania potencjalnej reakcji na bodziec zakłócający. Wykonanie tego 
testu jest bardziej związane z hamowaniem reakcji konkurencyjnej (na dystraktor) niż z odpornością na dystrakcję 
rozumianą jako powstrzymywanie się od przetwarzania bodźców zakłócających (przetwarzanie tak, dopiero na 
poziomie reakcji jest STOP).  
 

Karen, O’Hara i Skelton

 wykorzystali w swoim badaniu zadanie 

Posnera i Mitchella (1967

). Badani mieli podjąć 

decyzję, czy para prezentowanych liter spełnia narzucone przez instrukcję kryterium selekcyjne: 

a)  identyczności fizycznej (AA) 
b)  identyczności nominalnej (Aa) 
c)  identyczności opartej o regułę (np. Ae) 

 
Wg nich przetwarzanie bodźców może być powstrzymywane bardzo wcześnie, na poziomie ich rozpoznania (1), lub 
też bardzo późno, na poziomie przetwarzania ich znaczenia (2) 

(1)  dystraktory powodowały interferencję tylko w zadaniach, w których zastosowano kryterium fizycznej 

identyczności (skutecznie odrzucane w warunkach wymagających uwzględnienia znaczenia bodźców) 

(2)  interferencja stwierdzona w zakresie wszystkich zadań, niezależnie od kryterium selekcji 

 
Dynamiczna wersja zadania 

Posnera i Mitchella

- DIVA- pokazał, że sposób przeszukiwania pola percepcyjnego jest 

zależny od odporności na dystrakcje.  

background image

 

22 

Efekt tłumienia dystrakcji (

Neill

) – zastosowano zadanie Stroopa układając w specyficzny sposób porządek bodźców 

na liście niespójnej. N+1 bodziec tej listy był napisany kolorem atramentu, który był tożsamy ze znaczeniem bodźca N-
tego 
Reakcja na tłumiony wcześniej aspekt bodźca konfliktowego jest wolniejsza niż wówczas, gdy aspekt ten nie był 
uprzednio odrzucany. 
Efekt ten jest zależny od strategii rozwiązania przetargu między poprawnością a szybkością (Neill, Westberry). Gdy 
badani, wykonujący zadanie Stroopa, poświęcali poprawność na rzecz szybkości, nie stwierdzono efektu tłumienia 
dystrakcji, gdy zaś poświęcali szybkość na rzecz poprawności, efekt ten wystąpił z jeszcze większą siłą. 
Tłumienie dystrakcji jest krótkotrwałe- proces ten jest aktywny przez najwyżej 1000ms. 
 
Paradygmat POPRZEDZANIA NEGATYWNEGO 

(Neill

Własną wersję zadania w tym paradygmacie stworzył także 

Tipper

 

- N-ty bodziec- pryma, N+1- próba testowa 
- prezentowanie prymy utrudnia przetwarzanie bodźca właściwego 
- wydłużenie czasu potrzebnego na przetworzenie bodźca właściwego 
- efekt występuje tylko w kontekście konieczności dokonywania procesu selekcji w obrębie pary bodźców 
 
Zagadnieniem odporności na interferencję pamięciową zajęli się 

Andersen, Bjork i Bjork

- określili oni zjawisko 

zapominania z powodu przywoływania- odpamiętanie informacji z konkretnej kategorii może spowodować brak 
możliwości przypomnienia innej informacji z tej samej kategorii. 
Hamowanie pamięciowe (

Pefrect, Mulin, Conway, Perry

)- redukcja w zakresie poziomu aktywacji reprezentacji 

pamięciowej. 
- odpamiętywane są przede wszystkim egzemplarze ćwiczone 
 
Klasyfikacja rodzajów hamowania (

Nigg, 2000

): 

1)  kontrola interferencji 
2)  hamowanie percepcyjne (tłumienie odruchu kaskadowego) 
3)  hamowanie poznawcze (tłumienie irrelewantnych reprezentacji umysłowych) 
4)  hamowanie behawioralne  
5)  hamowanie powrotu 
6)  hamowanie uwagowe odruchu orientacyjnego 
 

Odmienna taksonomia rodzajów hamowania (

Friedman i Miyake, 2004

1)  hamowanie dominującej reakcji [zadanie Stroopa] 
2)  odporność na dystrakcję (możliwe jest odrzucenie informacji niepotrzebnych, z punktu widzenia aktualnie 

przetwarzanych danych) [Test flankerów] 

3)  odporność na interferencję proaktywną (proces aktywny i wysiłkowy, prowadzonym przy wykorzystaniu 

głębokich, trwałych reprezentacji umysłowych) [

zadanie Petersonów

- opamiętywanie egzemplarzy 

pojedynczej kategorii, które wcześniej są sukcesywnie prezentowane] 
 

• Funkcje zarządcze 
Problem homunculusa 
(Nęcka, 2004)- odnalezienia, opisania i wyjaśnienia mechanizmów działania Tego, który buduje 
reprezentacje, steruje myśleniem i podejmuje ważne dla całości systemu poznawczego decyzje, a więc Tego, który 
kontroluje działanie systemu poznawczego. 
Homunculus odnaleziony przez psychologów poznawczych został określony mianem funkcji zarządczych 
zlokalizowanych w przednich płatach czołowych mózgu 
- ich upośledzenie – syndrom czołowy- dezorganizacja wszystkich form zachowania 
Funkcje zarządcze: 

1)  przerzutność (pomiędzy zadaniami, procesami, czynnościami) [Wisconsin Card Sorting Test] 
2)  hamowanie (niepożądanej reakcji, bodźców zakłócających) [Wieża z Hanoi] 
3)  odświeżanie informacji w zakresie pamięci roboczej [Test Sternberga] 

 

Collete i Van der Linden (2002)

 wykazali, że wykonywanie zadań wymaga aktywizacji zarówno przednich płatów 

czołowych, jak i płatów tylnych, a w szczególności ciemieniowych obszarów kory mózgowej. 
 

background image

 

23 

Owen (2000)

 stwierdził, że mechanizm hamowania dominującej reakcji należy lokalizować tylko w części przednich 

płatów czołowych, zawierających obszary: 
- środkową część grzbietowo-boczną 
- środkową część brzuszno-boczną 
- grzbietową część przedniej części zakrętu obręczy 
 
Modele kontroli poznawczej
- markery somatyczne 
- mechanizmy uwagowe 
- mechanizmy pamięciowe 
 
Koncepcja uwagi 

Posnera

- podstawowe mechanizmy uwagowe: 

mechanizm aktywacyjny- podtrzymanie umysłu w sta nie pobudzenia niezbędnego do wykonania danej czynności 
poznawczej 
mechanizm orientacyjny- odpowiada za przenoszenie uwagi w polu percepcyjnym z obiektu na obiekt 
mechanizm zarządczy- kontrola wykonania czynności celowych; mechanizm zarządczy bierze górę nad 
mechanizmem orientacyjnym. 
 
Mechanizm zarządczy może skutecznie ograniczyć interferencję płynącą z bodźców zakłócających, jeśli system 
poznawczy z wyprzedzeniem zna np. kolor, odróżniający oba rodzaje bodźców: sygnał i dystraktor (

Theeuwes, Burger, 

1998). 

Zarządczy mechanizm uwagi odpowiada za hamowanie wagowego odruchu orientacyjnego oraz kontrolę interferencji 
pochodzenia zewnętrznego; niepowodzenia w funkcjonowaniu tego odpowiada hamowanie powrotu
niedopuszczanie do powrotu uwagi do wskazanego miejsca pojawienia się sygnału (

Posner, Cohen, 1984

). 

 
Kontrola uwagowa jest sprawowana odgórnie i ma charakter wewnętrzny. Mechanizm zarządczy determinuje, co i w 
jaki sposób będzie dalej przekazywane. Percepcja podąża wiec za uwagą. 
Jeśli mechanizm zarządczy nie jest dostatecznie ukształtowany- przetwarzanie informacji sterowane jest oddolnie i ma 
charakter zewnętrzny, przez co uwaga podąża za percepcją, będąc automatycznie nakierowaną na spostrzegany 
obiekt. 
 
Dwustopniowy system kontroli zachowania (

Shallice

Zachowanie jest kierowane w większości przez automatyzmy (rutyny), zarówno pierwotne (odruchy), jak i wtórne 
(nawyki) 
System kontroli czynności automatycznych decyduje, w przypadku konfliktu czynności automatycznych, 
automatycznych kolejności realizowania czynności; jego zadaniem jest hamowanie wszystkich rutyn, które są w 
mniejszym stopniu dostosowane do sytuacji bodźcowej.  
Ogólnym zadaniem mechanizmu automatycznego, selektywnego hamowania działań rutynowych jest ustalenie 
rozkładu jazdy czynności automatycznych. 
System kontroli czynności automatycznych jest nieskuteczny w sytuacjach nowych. 
W takich sytuacjach trzeba zahamować dominującą reakcję, monitorować i korygować błędy wynikające z prób 
dostosowania posiadanych schematów do nowych układów bodźców je wyzwalających, a także podejmować złożone 
decyzje i tworzyć nowe plany działań.  
 
Kontrolą przetwarzania informacji w sytuacjach nowych zajmuje się nadzorczy system uwagi SAS (polska nazwa tego 
sytemu: dominujący system zadaniowy).  
Zadaniem SAS jest układanie „rozkładu jazdy” czynności kontrolowanych oraz ich bieżący monitoring:  
- tworzenie nietrwałej reprezentacji umysłowej dla sytuacji problemowej 
 
Konsekwencje wynikające z założeń modelu kontroli zachowania (

Shallice

): 

- działanie systemu kontroli czynności nieautomatycznych może zostać upośledzone w sytuacji wykonywania zadań 
jednoczesnych o porównywalnym priorytecie 
- system kontroli nieautomatycznych może funkcjonować skutecznie jedynie przy efektywnym hamowaniu 
interferencji ze strony danych zawartych w pamięci 
- jednym z najważniejszych mechanizmów kontrolnych SAS powinien być mechanizm przerzutności pomiędzy 
elementami aktualnie przetwarzanych schematów działań  

background image

 

24 

 
Centralny system wykonawczy pamięci roboczej (

Baddeley

Do tego modelu Baddeley zapożyczył model SAS. System ten jest jednym z elementów pamięci roboczej.  
Centralny system wykonawczy jest odpowiedzialny za kontrolę zadań jednoczesnych. Jego głównym zadaniem jest 
zarządzanie zasobami uwagowymi systemu poznawczego i przeznaczenie ich do wykonywania czynności 
jednoczesnych. Kontrola czynności jednoczesnych jest możliwa, a redukcja kosztów poznawczych w wyniku 
efektywnej kontroli wydajna.  

 

ALE: Istnieją takie zadania, które wydają się pobierać całą dostępną moc centralnego systemu 
wykonawczego, a ich kontrolowanie jednocześnie z innymi zadaniami okazuje się niemożliwe. 
Np. test generowania liczb losowych 

Centralny system wykonawczy zlokalizowany jest w przednich płatach czołowych mózgu.  
System ten jest kandydatem na poszukiwanego przez psychologię poznawczą homunculusa kierującego zachowaniem.  
 
 
 
Rozdział 7. Percepcja 
 
 
Percepcja (spostrzeganie) – proces aktywnej interpretacji (odzwierciedlenia w systemie poznawczym) danych 
zmysłowych z wykorzystaniem wskazówek kontekstualnych, nastawienia i wcześniej zdobytej wiedzy. W wyniku 
percepcji dochodzi do rozpoznania obiektu. Wymaga aktywności podmiotu. 
 
Recepcja sensoryczna – polega na odzwierciedleniu bodźców w receptorach, czyli narządach zmysłów. Stanowi 
konieczny warunek i pierwszy etap procesu spostrzegania. Jest pasywny i odpowiada za gromadzenie informacji 
przez zmysły.  
 
Bodziec dystalny – zewnętrzny, znajdujący się poza systemem poznawczym. 
Wskutek bezpośredniego kontaktu z narządem zmysłu powstaje: 
Bodziec proksymalny – wewnętrzny i bliski. 
 
Zmysły bliskie (receptory kontaktowe) – zmysł smaku, dotyku i węchu 
Zmysły dalekie (telereceptory) – wzrok i słuch 
 
Odebranie bodźca proksymalnego prowadzi do powstania wrażeń. Są to najprostsze procesy psychiczne, w wyniku 
których dochodzi do odzwierciedlenia w spostrzegającym umyśle pojedynczych właściwości rejestrowanych 
obiektów. 
Spostrzeżenie jest całościowym odzwierciedleniem obiektów, składający się z bodźców dystalnych i wywołanych 
przez nie wrażeń. 
 
Deprywacja sensoryczna – znaczne obniżenie poziomu stymulacji, prowadzi do wystąpienia halucynacji (nie 
odpowiadające rzeczywistości wrażenia) oraz do urojeń (myśli). 
 
Bodźce zdegradowane – bodźce niepełne, niekompletne, pojawiające się w nieoptymalnych warunkach czasowych 
lub przestrzennych. 
 
Naiwne koncepcje spostrzegania (metafora aparatu fotograficznego) 
Ignorują problem przekładu danych zmysłowych na dane umysłowe. Rejestrator zmysłowy pełni funkcję przekaźnik 
informacji na drodze do kory mózgowej, zatem informacja ma charakter zmysłowy. 
 
Proces identyfikacji obiektów: 
- koncepcja modeli – egzemplarz jest porównywany do modelu wzorca, który reprezentuje nadrzędną kategorię. 
Modelem może być specyficzny egzemplarz, czyli pierwszy napotkany przedstawiciele danego wzorca lub prototyp, 
czyli najczęstszy z dotychczas napotkanych egzemplarzy. 
- koncepcja cech – decyzja o rozpoznaniu wzorca jest wynikiem porównania cech kategoryzowanego obiektu i cech 
wzorcowych. 
 

background image

 

25 

Spostrzeganie jest procesem oddolnym – przebiega w kierunku od rejestracji wrażeń do identyfikacji obiektów.  
Mechanizm orientacyjny selektywnej uwagi – uchwycenie przez receptory wystąpienia bodźca w polu percepcyjnym 
Detektory cech – odbiór i kodowanie wrażeń 
Magazyny informacji sensorycznej (pamięć ultrakrótkotrwała) – przechowywanie efektów recepcji 
Pamięć trwała – wiedza w niej zgromadzona umożliwia identyfikację poostrzeganych bodźców 
Magazyny informacji sensorycznej: 
- magazyn ikoniczny – czas przechowywanie – 500 ms, pojemność jest zmienna w czasie, sposób kodowanie jest 
ściśle sensoryczny 
- magazyn echoiczny  - dłuższy czas przechowywania, ale mniejsza pojemność 
 
Percepcja głębi – możliwość spostrzegania absolutnego dystansu, jaki dzieli obserwatora od obiektu oraz 
względnego dystansu, dzielącego poszczególne obiekty w polu wzrokowym od siebie. Warunkuje percepcję 
przedmiotów, a ona z kolei jest warunkiem procesu kategoryzacji i myślenia pojęciowego. 
 
Szacowanie odległości odbywa się za pomocą: 
- wskazówek okulomotorycznych 
 

- śledzenie zmiany lokalizacji obiektu w polu wzrokowym (akomodacja soczewki) 

 

- określenie siły sygnału przesyłanego drogami nerwowymi z centrum kontroli motorycznej do mięśni, 

regulujących kształt soczewki. 
- wskazówek wizualnych 
 

- monokularne   

 

 

- perspektywa liniowa 

 

 

- szacowanie wielkości cienia 

 

 

- ocena kontrastu 

 

 

- szczegóły powierzchni 

 

 

- porównywanie względnej pozycji obiektów (możliwe złudzenie Kanizsy) 

 

 

- znajomość wielkości obiektu 

 

 

- ocena paralaksy ruchowej (przebytego dystansu)  

 

- binokularne 

 

 

- konwergencja dwuoczna 

 

 

- widzenie stereooptyczne – zdolność do oszacowania względnego dystansu obiektów znajdujących 

się obok siebie w polu wzrokowym 
 
Identyfikacja obiektu  

Humphreys i Bruce

 - Fazy identyfikacji obiektu (relatywnie odrębne, ale posiadające sztywne następstwo czasowe): 

- recepcja danych zmysłowych 
- odzwierciedlenie obiektu w systemie poznawczym 
- klasyfikacja percepcyjna obiektu – dane zmysłowe są porównywane z danymi umysłowymi 
- klasyfikacja semantyczna – przywołanie danych dotyczących funkcji danego obiektu 
- klasyfikacja leksykalna – przypisanie obiektowi określonej etykiety werbalnej 
 

Biederman

 – Identyfikacja obiektów zachodzi poprzez detekcję ich geometrycznych komponentów strukturalnych, 

zwanych geonami. 
 
Spostrzeganie jest również procesem odgórnym. Reprezentacja percepcyjna obiektu jest konfrontowana z danymi 
umysłowymi. Dowody na odgórny charakter percepcji: 
- stałość spostrzegania (stałość wielkości, kształtu, jasności i barwy) 
- wpływ nastawienia na spostrzeganie (wstępne przygotowanie umysłu do odbioru określonej informacji – 

Bugelski i 

Alampay

 – łysy i szczur  ) 

- złudzenia i błędy w spostrzeganiu (

trójkąt Penrose’a, sześcian Neckera

- wpływ kontekstu na spostrzeganie  
 
 
 
 
 

background image

 

26 

Teorie percepcji 
 
Teoria asocjacjonistyczna – spostrzeżenie to prosta suma wrażeń i powstaje (oddolnie) jako ich połączenie na 
zasadzie praw kojarzenia: 
- styczności wrażeń w czasie  
- styczność wrażeń w przestrzeni 
- wrażeń przez podobieństwo 
- wrażeń przez wzajemny kontrast 
Spostrzeżenie powstaje po wielokrotnym łącznym występowaniu poszczególnych wrażeń. 
Głosi prymat części nad całością oraz wrażeń nad spostrzeżeniami. 
Nie uwzględnia roli reprezentacji umysłowych w procesie percepcji. 
 
Teoria postaciowa (

Wertheimer, Koffka, Kohler

Prymat całości nad częścią – pierwotne są spostrzeżenia, wrażenia zaś wtórne (wynikają z analizy). 
Sumowaniem wrażeń nie da się wyjaśnić procesu percepcji. Dowody: 
- płynny ruch pozorny 
- spostrzeganie całej konstelacji gwiazd wcześniej niż elementów konstelacji  
Zasady, zgodnie z którymi system poznawczy wyodrębnia całości (figury) z tła różnorodnych wrażeń: 
- bliskość przestrzenna 
- podobieństwo 
- kontynuacja – wspólny ruch obiektów w tym samym kierunku 
- pregnancja – „domknięcie” obiektu niedokończonego 
- dobra figura   - najpierw widzimy figurę, a następnie jej niedoskonałości  
 
Teoria wzorców (

Reed

- proces identyfikacji obiektu przebiega na zasadzie porównania obrazu percepcyjnego z jego umysłowym wzorcem 
- wzorce są holistyczne, nie podlegają rozbiciu na elementy składowe 
- miarą rozpoznania jest stopień pokrywania się obrazu percepcyjnego i wzorca 
- teoria ta jest możliwa do zaakceptowania jedynie tylko na poziomie recepcji sensorycznej 
 
Teoria cech (

Gibson

- nabywanie wzorcowych reprezentacji odbywa się w procesie spostrzegania dystynktywnych cech 
- cecha kryterialna 
 

- musi przyjmować różne wartości dla różnych wzorców 

 

- musi pozostać niezmienna niezależnie od punktu i właściwości obserwacji 

 

- wszystkie cechy kryterialne powinny razem układać się w unikatowy wzorzec 

 

- liczba cech kryterialnych powinna być relatywnie mała 

- tego typu identyfikacja ma miejsce przy długiej prezentacji obiektu 
 
Teoria obliczeniowa (

Marr

- proces spostrzegania polega na generowaniu pewnej serii reprezentacji spostrzeganego środowiska 
 

- reprezentacja pierwotna – dwuwymiarowy obraz, pozbawiony głębi 

 

Zjawisko przechodzenia przez krawędź – wyróżnienie krawędzi figury dzięki oddzieleniu dwóch obszarów o 

różnej luminacji światła 
 

 

- surowe – mapa punktów świetlnych 

 

 

- pełne – odzwierciedlają kształty obiektów 

 

- reprezentacja wymiarowa – opis obiektów w kategorii głębi oraz obrazu powierzchni 

 

- odzwierciedlenie 3D – ostateczny produkt procesu percepcji – pełny trójwymiarowy obraz, niezależny od 

kąta obserwacji. Są łatwo dostępne i konstruowane, niezależne od obiektu widzianego z różnych perspektyw oraz 
elastyczne. Są konstruowane z różnych przestrzennych form podstawowych. 
 
Teoria ekologiczna (

James Gibson

- rzeczywistość poznajemy bezpośrednio, bez konieczności posługiwania się danymi pamięciowymi dotyczącymi 
spostrzeganych obiektów.  
- oddolne podejście do procesów spostrzegania 
- informacje docierają do receptorów w szyku optycznym (ze względu na intensywność światła) 

background image

 

27 

- spostrzegamy dystans za pomocą gradientu struktury powierzchni, paralaksy ruchowej 
- właściwość priorytetowa obiektów – ruch 
- właściwości pola percepcyjnego: 
 

- niezmienniki – właściwości, które się nie zmieniają wraz ze zmianą punktu obserwacji, ważne z punktu 

widzenia przebiegu procesu percepcji 
 

- zmienniki 

- percepcja wynika z wyuczonej umiejętności 
- cechy i funkcje obiektów są spostrzegane bezpośrednio 
- percepcyjnie dane są afordancje – akty lub zachowania, których wykonanie umożliwiają nam pewne obiekty, 
miejsca lub zdarzenia. 
 
Spostrzeganie twarzy – koncepcja modeli (ujęcie holistyczne) vs. koncepcja cech (najważniejsze są rejony oczu, a 
najmniej istotne rejony nosa)  
 
Czytanie słów – proces wykorzystujący oddolne mechanizmy spostrzegania: Efekt przewagi słowa nad literami 
Tłumienie sakkadowe – rejestrowanie danych zmysłowych nie jest możliwe. 
Asymetria wokół punktu fiksacji – obszar na lewo od punktu fiksacji jest trzykrotnie mniejszy od obszaru na prawo. 
Poprzedzanie percepcyjne – poprzedzające obiekty punkt fiksacji są objęte wstępną analizą percepcyjną. 
 
 
 
 
Rozdział 8. Pamięć 
 
 
 
Pamięć – 
zdolność do przechowywania informacji i późniejszego wykorzystania. LUB zespół procesów poznawczych, 
zaangażowanych w nabywanie, przechowywanie i późniejsze odtwarzanie informacji. 
 
1. Rodzaje pamięci 
Pamięć przemijająca (nietrwała) – Pamięć trwała (bez ograniczeń czasowych) 
 

Norman, 1970

 – rozróżnił ponad 20 rodzajów pamięci 

 

Tulving, 1984

 – systemy pamięciowe są odrębne jeśli: 

a)  są wyspecjalizowane w przetwarzaniu różnych rodzajów informacji 
b)  funkcjonują wedle różnych reguł 
c)  mają różne podłoże neuronalne 
d)  pojawiają się w różnym czasie w rozwoju ontogenetycznym 
e)  różnią się formatem reprezentowanych informacji 

 
Klasyczny podział pamięci: 
Wywodzi się z blokowego modelu pamięci (Atkinson i Shifrin, 1968). Oparty na kryterium czasu przechowywania. 
Dzieli się na: magazyn sensoryczny -> magazyn krótkotrwały(STS) -> magazyn długotrwały(LTS).  

a) Magazyn sensoryczny: powiązany ze zmysłami zmysłu np. wzroku, słuchu, węchu.                 
    Przechowuje bodziec krótko (kilkaset milisekund). Ogromna pojemność a na pewno    
    większa od STM. 
b) Magazyn pamięci krótkotrwałej: posiada informacje zarówno bodźcową jak i      
    przywołaną z LTS. Posiada różne kody podtrzymywania informacji jak np.   
    mechanizm bezgłośnego powtarzania. Mało pojemny. Funkcją jego jest  
    przetrzymywanie informacji w czasie niezbędnym do dalszego przetwarzania. 
c) Magazyn pamięci długotrwałej: nieograniczony czas przechowywania informacji.  
    Funkcją jego jest umożliwienie skutecznej adaptacji jednostki w środowisku w  
    dłuższej perspektywie czasowej. 

 
 

background image

 

28 

Klasyfikacja rodzajów pamięci wg 

Squire’a i Zola-Morgan (1991

Pamięć: 
a) Deklaratywna (jawna): fakty i wydarzenia(u Tulvinga semantyczna i epizodyczna*) 
b) niedeklaratywna (niejawna): umiejętności i nawyki, poprzedzanie, warunkowanie klasyczne, nieasocjacyjne 
uczenie się. 
*jej odmianą jest autobiograficzna czyli zapis wydarzeń w których sami braliśmy  

       udział. 
 

Informacje w pamięciach semantycznych i epizodycznych mogą się przenikać.  
Metoda miejsc: mnemotechnika polegająca na nałożeniu wiedzy na utrwalony zapis autobiograficzny z 
charakterystyczną lokalizacją przestrzenną. 
 
Blokowe modele pamięci (

Atkinson i Shifrin, 1968

):  

pamięć rozumiana jako system wielu magazynów. Każdy magazyn jest wyspecjalizowany w przechowywaniu 
określonej informacji. Ich model był niemalże identyczny z modelem klasycznym. 
Blokowy Model Lehra i Fishera (1988): system percepcyjny człowieka przetwarza w przybliżeniu 10_9 – 10_11 bitów 
na sekundę. Sensoryczna->Długotrwała->Krótkotrwała->Długotrwała. 
 
Efekt świeżości: łatwiej odtworzone bodźce z końca listy 
Efekt pierwszeństwa: łatwiej odtworzone bodźce z początku listy 
 
Utrata dostępu do informacji w LTM to powód „zapominania”(informacja ciągle jest ale nie możemy wydobyć np. 
efekt końca języka). 
 
Podwójna dysocjacja: dowód na odrębność STM i LTM. Pacjenci z uszkodzeniami mają np. efekt świeżości ale nie 
mają efektu pierwszeństwa. 
 
Interferencja: w STM przez nakładanie się podobieństwa akustycznego bodźców. W LTM przez nakładanie się 
bodźców semantycznych. 
 
Procesualne modele pamięci 
Modele procesualne: wszystkie alternatywne dla modeli magazynowych ale ich nie kwestionuje. 
 
Teorie poziomów przetwarzania (

Craik i Lockhart, 1972

):  

Przełomowa alternatywa. Trwałość śladów pamięciowych wiąże się z głębokością przetworzenia stymulacji. System 
pamięciowy jednorodny choć angażuje różne systemy poznawcze. Ślady pamięciowe są zapisem operacji 
poznawczych składających się na proces jego percepcji nie zaś odwzorowaniem bodźca. Dlatego proces 
odpamiętania jest próbą odtworzenia sytuacji percepcyjnej. 
 
Efekt autoreferencji (

Rogers, Kupler i Kirke, 1977

): 

Badani odpowiadali na różne pytania + jedno (czy słowo opisuje ich samych). Najłatwiej odpamiętywali to właśnie 
pytanie. 
 
2. Systemy pamięci przemijającej 
Pamięć przemijająca: obejmuje rejestry sensoryczne oraz pamięć krótkotrwałą (roboczą) 
 
Pamięć sensoryczna:
 pamięć ikoniczna(wzrok) i echoiczna(słuch).  

a)  pamięć ikoniczna (Sperling, 1960): Przechowuje dużo ale krótko. 
b)  Pamięć echoiczna (Treisman, 1964): Odkryta w badaniu słuchu dychotycznego. 

 
Maskowanie wsteczne: nowy bodziec przy szybkiej prezentacji po starym (max 100ms) zaciera go całkowicie. 
 
Pamięć krótkotrwała:
 

Około 7 sekund. Zapominamy bo: zanik z upływem czasu, interferencja, przekierowanie uwagi. 
 

background image

 

29 

Grupowanie: mnemotechnika polegająca na próbie połączenia materiału tak by więcej się go zmieściło w STM. 
Można zapamiętać mniej dużych „brył” niż małych. 
 
Efekt podobieństwa fonologicznego: 

Baddeley

. Słowa podobne trudniejsze w odpamiętaniu od wyraźnie różnych. 

 
Rodzaje przeszukiwania STM (

Sternberg

): sekwencyjne i wyczerpujące. Jeden element po drugim i wszystkie, a nie 

losowo do znalezienia poszukiwanego. 
 
Pamięć robocza (wielokomponentowy model Baddeleya):  
Pamięć robocza (

Baddeley i Hitch

): zarówno przechowywanie i przetwarzanie informacji. 

Centralny system wykonawczy  pętla fenologiczna, bufor epizodyczny, szkicownik wzrokowo-przestrzenny. 
Centralny system wykonawczy: funkcje: bieżące przetwarzanie informacji, koordynacja buforów, nadzór nad 
bieżącym przetwarzaniem.  
 
Pętla fenologiczna: jeden z 3 buforów podlegających CSW. Odpowiada za krótkotrwałe przechowywanie 
informacji fenologicznych (dwa sposoby: pasywny i aktywny). 
 
Szkicownik wzrokowo-przestrzenny: przechowywanie materiału wzrokowego i przestrzennego. 
 
Bufor epizodyczny: czasowe przechowywanie zintegrowanych epizodów. 
  

Pamięć robocza (

model aktywacyjny Cowana

): 

Koncepcja jednorodna – tłumaczy funkcjonowanie pamięci roboczej bez odwoływania się do podsystemów 
krótkotrwałego przechowywania informacji. 
 
Ognisko uwagi – w nim znajduje się najbardziej aktywna informacja 
 
Model długotrwałej pamięci roboczej 

Ericssona i Kintsha

 
Zaproponowali model pamięci roboczej powiązanej z przechowywaniem informacji w LTM. Według nich STM tylko 
wyciąga i podtrzymuje aktualnie potrzebne informacje z LTM. 
 
Pamięć prospektywna: Pamięć planów na najbliższy czas. Najprawdopodobniej jest niezależna i niezwiązana z 
retrospektywną. 
 
3. Systemy pamięci trwałej 
(powtórka z pkt 1. semantyczna itd.) 
 
Pamięć trwała: 
dłuższy czas przechowywania i inne funkcje niż przemijająca. Gromadzi informacje potrzebne do 
dobrej adaptacji do środowiska. 
 
Decyzja leksykalna: badani mieli określić czy to słowo czy nie słowo 
 
 
 

Rozdział 9.Czynności pamięciowe  

 

 
Zapamiętywanie – czynność pamięciowa polegająca na wprowadzeniu informacji do jednego z systemów pamięci. 
Wymaga zakodowania informacji i utrwalenia zapisu. 
 
Kodowanie – automatyczny proces tworzenia reprezentacji informacji w pamięci 
Ujęcia teoretyczne: teorie poziomów przetwarzania 

Craika i Lockharta

 (8.1.3) i teoria podwójnego kodowania 

Paivio

 

(2.3.2) 

background image

 

30 

H. Ebbinghaus

 – pamięć bada się z użyciem bezsensownego materiału (lista bezsensownych sylab, np. zap,lif), dzięki 

czemu zyskuje się dostęp do „naturalnych” procesów pamięciowych (eliminuje wpływ uprzedniej wiedzy na 
zapamiętywanie) 

liczba powtórzeń materiału wpływa na efektywność kodowania 

oszczędność przy ponownym uczeniu się 

 

Tulving

 (krytyka) – poddając się długim seriom badań, Ebbinghaus nabywał wiedzę semantyczną 

(symboliczna reprezentacja listy sylab) oraz wiedzę proceduralną (szybkie „deklamowanie” zestawu 
sylab) 

 

Jost

 –  

1. rozłożenie w czasie uczenia się ciągów bezsensownych sylab wpływa na lepszą efektywność procesu 
ponownego uczenia się (gorzej: 30-krotne powtórzenie w ciągu jednej serii, lepiej: 10 powtórzeń w ciągu 
trzech dni); 

2. jeżeli dwa skojarzenia mają jednakową siłę, ale jedno z nich jest starsze od drugiego, to skojarzenie 

chronologicznie wcześniejsze będzie bardziej podatne na dobroczynny wpływ ponownego uczenia się 

 

Hovland

 – manipulował nie tylko długością przerwy między kolejnymi powtórzeniami całej listy, ale 

również przerwą między ekspozycją poszczególnych jej elementów 

 dłuższa przerwa między 

ekspozycją elementów listy wpływa pozytywnie na zapamiętywanie, podczas gdy długość przerwy 
między kolejnymi próbami uczenia się całej listy nie miała związku z efektywnością zapamiętywania 

 

Travis

 – manipulował przerwą czasową między pierwszym i ponownym uczeniem się 

 mechanizm 

konsolidacji śladu pamięciowego – utrwalenie śladu pierwszego uczenia się w pamięci długotrwałej 

 

Bahrick

 i in. – im dłuższa przerwa pomiędzy kolejnymi powtórzeniami materiału, tym lepsze jego 

pamiętanie, niezależnie od czasu jaki upłynął od zakończenia nauki (efektywność i odporność na 
wygaszanie) 

 

Bousfield

 – grupowanie kategorialne 

 

Deese

 – związki skojarzeniowe pomiędzy słowami są predyktorem liczby intruzji (wtrąceń słów) 

 

Frost

 –  

1. ucząc się pod kątem testu swobodnego odtwarzania zapamiętujemy materiał wieloaspektowo, 
podczas gdy do rozpoznawania kodujemy minimalną ilość informacji, która pozwoli nam na różnicowanie 
treści znanych od nieznanych;  
2. odpamiętywanie może się odbywać z uwzględnieniem klucza semantycznego i wizualnego (oba typy  
wskazówek muszą być wykorzystywane w trakcie kodowania) 

Elaboracja – opracowanie materiału, polegające na dodaniu do informacji czegoś, czego nie było w niej oryginalnie; 
służy nadaniu głębszego znaczenia informacji podlegającej kodowaniu; prowadzi do głębszego przetwarzania 

 

Stein i Stanford

 – wpływ elaboracji na zapamiętywanie 

 

Godden i Baddeley

 – wpływ na zapamiętywanie ma zgodność kontekstu zapamiętywania i odtwarzania 

(gdy zastosowano test rozpoznawania, wpływ zgodności kontekstu okazał się nieistotny!) 

 

Smith i Vela

 – efekt kontekstu występuje, gdy jego elementy są włączane w strukturę zapamiętywania 

(kontekst jest integralną właściwością zapamiętywanego epizodu, stanowi zestaw wskazówek 
wykorzystywanych przy wydobyciu wiedzy) 

 

Tulving i Thomson

 – efekt specyficzności kodowania; wniosek z badania: specyficzność kodowania 

dwuznacznych słów, które kodowane były w tylko jednym znaczeniu (dzięki wskazówce zawartej w 
pierwszym słowie) 

 ich rozpoznawanie było trudniejsze niż przypominanie (s. 386) 

 

Fisher i Craik

 – dzięki specyficznym wskazówkom można uzyskać wyższy poziom odpamiętania słów 

docelowych opierając się na kluczu fonetycznym, a nie semantycznym 

Interferencja proaktywna (

Hugo Munsterberg

) – dochodzi do zakłócenia procesu nabywania, utrwalania albo 

przechowywania nowej wiedzy, wywołane wiedzą wcześniej nabytą, jeśli między tymi dwoma rodzajami wiedzy 
następuje jakiś związek 

 

Melton i Lackum

 – wpływ czynnika podobieństwa (list bezsensownych sylab) na wielkość interferencji 

 

2 razy wyższa w wypadku materiału podobnego niż niepodobnego do pierwszej listy 

 

Lusting i Hasher

 – interferencja proaktywna występuje również w przypadku pamięci niejawnej 

(występuje niezależnie od rodzaju pamięci i metody jej testowania)  

Konsolidacja śladu pamięciowego – proces dokonywania zmian zachodzących w komórkach nerwowych; jeśli 
krótkotrwałe przechowywana informacja jest wielokrotnie powtarzana, to w trakcie tych powtórek dochodzi do 
reaktywacji śladów pamięciowych, w ten sposób ślad ulega stopniowemu utrwaleniu, prowadząc do zmian na 
poziomie neuronalnym; 

background image

 

31 

Biologicznie: trwałe wzmocnienie albo osłabienie transmisji synaptycznej; proc. dwufazowy: 

1)  przesłanie sygnału z synaps do jądra komórkowego neuronu oraz zmiana w ekspresji genów i w syntezie 

aminokwasów 

2)  informacja z jądra jest przekazywana zwrotnie do synaps powodując w nich zmiany strukturalne 

Techniki mnemoniczne – sformalizowane metody wspomagania zapamiętywania; podział na dwie grupy: 

1)  odnoszą się do teorii podwójnego kodowania Paivio – wykorzystują więcej niż jeden kod reprezentacji w 

trakcie nabywania materiału (informacja może być kodowana w systemie werbalnym i obrazowym) 

2)  polegają na różnych sposobach organizowania informacji; dzięki nim informacjom początkowo 

nieuporządkowanym nadawana jest pewna struktura 

 

  Metoda obrazów interaktywnych – do zapamiętywania luźnej listy słów; polega na powiązaniu wyobrażeń 

wyzwalanych przez te słowa w taki sposób, aby powstała jakaś historia (gr. 1.) 

  Kategoryzowanie (gr.2.) 
  System słów – wieszaków – polega na użyciu jakiegoś dobrze znanego tekstu (dziecięcy wierszyk, 

rymowanka, wyliczanka) jako „wieszaka” dla nowo nabywanej informacji; metoda ta odwołuje się do 
wyobrażeń (gr. 2.) 

  Metoda miejsc  

 
PRZECHOWYWANIE – jest czynnością pamięciową, która polega na przeciwdziałaniu zanikaniu albo utracie dostępu 
do zapamiętanej informacji. W trakcie przechowywania zapisy pamięciowe mogą być rekodowane, co prowadzi do 
zmian w zakresie ich treści albo sposobu uporządkowania. 
Zapominanie 

 

H.

 

Ebbinghaus

 – proces zapominania listy bezsensownych sylab przebiega bardzo szybko; większość 

materiału tracimy już po kilkudziesięciu minutach, po czym tempo zapominania zdecydowanie spada 

 

Ballard

 – porównanie tempa zapominania informacji w zależności od jej sensowności; po upływie tygodnia 

badani odtwarzali poprawnie ok. 90% materiału sensownego w stosunku do poziomu wyjściowego 
ustalonego po zakończeniu uczenia się oraz 70% materiału bezsensownego  

  Dobrze zautomatyzowane umiejętności są mało podatne na wpływ takich uszkodzeń mózgu, które powodują 

utratę możliwości nabywania wiedzy deklaratywnej 

 pacjent H.M - uszkodzenie przyśrodkowych części 

płatów skroniowych spowodowało utratę możliwości nabywania wiedzy semantycznej i epizodycznej. 

Interferencja retroaktywna – zakłócenie procesu przechowywania wcześniej nabytej wiedzy, wywołane wiedzą 
nabytą później, jeśli występuje między nimi jakiś związek; zjawisko to jest tym silniejsze, im bardziej podobne są oba 
rodzaje materiału, im słabsze było opanowanie pierwszego materiału i im bardziej obszerny jest drugi materiał. 
 
Zanikanie śladu vs utrata dostępu 

 

Ebbinghaus

 – zanikanie śladu pamięciowego 

  Utrata wskazówek dostępu do informacji przechowywanej w pamięci (

Tulving

) – informacja ta jest nadal 

potencjalnie dostępna, jednak w danym momencie nieosiągalna; jest to skutkiem braku właściwego klucza 
wydobycia lub niezgodności kontekstu odpamiętywania z kontekstem kodowania informacji w pamięci 
(zjawisko „końca języka) 

 

Jenkins i Kalenbach

 – falsyfikacja koncepcji śladu pamięciowego- poziom odtworzenia ciągu liczb był wyższy 

w warunku snu niż w warunku aktywności, a różnica ta była tym większa, im więcej czasu upłynęło od 
momentu zapamiętania listy 

Reminiscencja – zjawisko wzrostu (raczej nieoczekiwanego) poziomu odtworzenia zapamiętanego materiału, bez 
jego dodatkowego uczenia się. 

 

Ballard

 – poprawa pamięci w kilku pierwszych dniach po nauczeniu się materiału 

 

Ward

 – badanie na materiale bezsensownych sylab; po upływie 6s od zakończenia ucznia się, poprawność 

odtworzenia spadła, ale już po 30 s wyraźnie wzrosła 

 

Franklin i Holding

 – po ukończeniu 70. roku życia poprawia się pamięć wydarzeń z życia człowieka, które 

miały miejsce w wieku 10-30 lat  

  Zjawisko reminiscencji wykryto również w pamięci epizodycznej i semantycznej 

 
ODPAMIĘTYWANIE – czynność polegająca na wykorzystywaniu wcześniej zapamiętanych informacji. Może się 
dokonać poprzez odtwarzanie, rozpoznawanie lub niejawny wpływ na zachowanie. 
 
 

background image

 

32 

Dwa podstawowe rodzaje odpamiętywania: 

  przypominanie – kiedy osoby badane próbują bezpośrednio przywołać zapamiętane treści 
  rozpoznawanie – wśród przedstawionego materiału należy wskazać to, co było przedmiotem 

zapamiętywania  

Metody badania przypominania: 

  odtwarzanie w kolejności – polega na odpamiętaniu materiału zgodnie z kolejnością prezentacji 

poszczególnych elementów w fazie zapamiętywania 

  odtwarzanie swobodne – polega na przypomnieniu sobie materiału w dowolnej kolejności, a w szczególności 

niekoniecznie zgodnej z sekwencją, w jakiej materiał ten był wcześniej prezentowany 

  odtwarzanie ukierunkowane – jest specyficzne dla rodzaju materiału, którym są pary bodźców; w teście 

odtwarzania prezentowane jest pierwsze słowo z pary, a zadanie polega na przypomnieniu sobie drugiego z 
nich 

odtwarzanie i rozpoznawanie są miarami pamięci jawnej, jedynie odtwarzanie ukierunkowane może 
aktywizować również pamięć niejawną 

Metody odpamiętania z pamięci niejawnej: 

  klasyfikacja materiału (np. ciągów symboli jako zgodnych albo niezgodnych z regułami sztucznej gramatyki)  
  uzupełnianie fragmentów (np. utworzenie słowa z liter A_L_GY) 
  poziom wykonania zadań wymagających kontrolowania złożonych systemów dynamicznych (rozdz. 4.3.3 i 

9.2.2) 

Różnice w poziomie poprawności odpamiętania w zależności od zastosowanej metody: 

 

Luh

 – rozpoznawanie prowadzi nie tylko do wyraźnie lepszych rezultatów niż odtwarzanie, ale również jest 

bardziej odporne na upływ czasu 

  Podstawową różnicą między rozpoznawaniem a odtwarzaniem jest dostępność wskazówek wydobycia – 

odtwarzanie wymaga odwołania się do wskazówek wewnętrznych (które muszą zostać samodzielnie 
przywołane), rozpoznanie natomiast na wskazówkach zewnętrznych (obecnych w prezentowanym 
materiale) 

  Odtwarzanie – proces dwufazowy: 

1)  przeszukanie pamięci, które (jeżeli jest efektywne) prowadzi do wydobycia inf. 
2)  rozpoznanie czy odnaleziona inf. jest tą poszukiwaną 

  Rozpoznawanie składa się tylko z jednej fazy 
 

Tulving

 – rozpoznawanie i odtwarzanie są procesami jednofazowymi, są podobne i polegają na 

zintegrowaniu informacji zawartych we wskazówkach z tym, co stanowi zapis pamięciowy, różnica między 
nimi wynika z warunków inicjowania obu procesów odpamiętywania 

 

Deese, Hall (paradoks frekwencji słów

) – użycie sów o wysokiej frekwencji występowania w języku powoduje 

wzrost poprawności odtwarzania, a jednocześnie spadek poprawności rozpoznawania 

 

Tversky

 – nastawienie osób badanych na określony typ odpamiętywania poprawia wyniki, kiedy 

rzeczywistość jest zgodna z zapowiedzią albo pogarsza, jeśli jest inaczej 

Rola wskazówek naprowadzających i kontekstu 

 

Tulving i Thomson

 – większy wpływ na odpamiętanie ma zgodność wkazówek wydobycia z warunkami 

kodowania informacji, niż głębokość jej przetworzenia 

 

Tulving i Psotka

 – pojawienie się nazw kategorii, będących wskazówkami wydobycia, wyeliminowało 

interferencję, znakomicie podnosząc ogólną poprawność odpamiętywania 

 

Ucros

 – trzy rodzaje wpływu nastroju na odpamiętywanie – 1. poprawność odpamiętywania jest tym wyższa, 

im większa jest zgodność nastroju w momencie kodowania i odtwarzania; 2. pozytywny nastrój na ogół 
sprzyja zapamiętywaniu, przy czym efekt ten jest silniejszy, kiedy materiał pamięciowy ma bardziej osobisty 
charakter (3.) 

 

Baddeley

 – rozróżnienie między dwoma rodzajami wpływów kontekstualnych na pamięć: 

kontekst naturalny – charakteryzuje się naturalnym i bezpośrednim wpływem na znaczenie zapamiętanej 
inf., np. drzwi stanowią faktyczny kontekst dla słowa „klucz” 

kontekst sztuczny – nie jest bezpośrednio związany z zapamiętaną informacją 

Zawodność pamięci 
1) pamięć naocznych świadków 

 

Elizabeth Loftus

 – czynniki zaburzające wiarygodność zeznań świadków: 1. silne emocje indukowane u 

świadków powodują wybiórcze zapamiętywanie zdarzeń; 2. pamięć źródła informacji (Davidson i Glisky) – 
rozróżnienie na pamięć faktów (dane przechowywane w pamięci semantycznej bądź epizodycznej) i pamięć 

background image

 

33 

źródła (zawiera kontekst nabywania informacji, znacznie ważniejszy w przypadku epizodów niż wiedzy 
ogólnej) 

 

E. Loftus

 – łatwo można doprowadzić do zintegrowania faktów obserwowalnych w trakcie zdarzenia, którego 

ktoś był świadkiem, z faktami wywnioskowanymi z późniejszego opracowania zdarzenia 

 

Loftus i Palmer

 – film z wypadku, pytania i sugestia. Sugestia stając się częścią pamięci zdarzenia, częściej 

skłaniała do wyciągania fałszywych wniosków 

 efekt dezinformacji – zjawisko modyfikacji przywołań 

pamięciowych, wywołanych błędną informacją wprowadzoną do pamięci 

 

Zaragoza i Mitchell

 – włączanie błędnych inf. do wyobrażeniowych rekonstrukcji zdarzeń  

 

Loftus

 – centralny i peryferyczny charakter zdarzenia 

 jeżeli zdarzenie ma charakter centralny, to jego 

detale są dobrze pamiętane i niepodatne na wpływ manipulacji eksperymentalnych 

 

Schooler i Engstler-Shooler

- efekt werbalnego zamazywania zapisów pamięci wzrokowej, którego podłożem 

jest interferencja retroaktywna 

 materiał werbalny pojawiający się w trakcie wywiadu, nadpisywał się na 

nabyty wcześniej materiał wzrokowy (zdarzenie) 

 

Dodson i Reisber

 – prawdziwe wspomnienia silniej angażowały obszary związane z pamięcią wzrokową, 

podczas gdy fałszywe wspomnienie wizualizowane było dzięki wyobraźni 

 

Jonhson, Hashtroudi i Linsay

 – wyjaśnienie efektu dezinformacji 

 kiedy w trakcie wywiadu, manipulując 

treścią pytań, włącza się dodatkowe informacje, osoby badane błędnie przypisują je oryginalnemu źródłu, 
czyli samemu zdarzeniu 

Fałszywe wspomnienia 

 

Deese

 – paradygmat badania pamięci fałszywych wspomnień – prezentacja listy, zawierającej słowa 

powiązane znaczeniowo z pewnym pojęciem krytycznym 

 im większe było powiązanie listy ze słowem 

krytycznym, tym większe prawdopodobieństwo intruzji (przypadek błędnego włączenia słowa krytycznego 
do wyników testu swobodnego odtwarzania 

 

Hyman

 – implementacja fałszywych wspomnień jest możliwa, jeśli prawdopodobne jest, ze nieprawdziwe 

zdarzenie mogło mieć miejsce; trzy czynniki, które sprzyjają tego rodzaju błędom: 1. bogactwo szczegółów 
fałszywego zdarzenia, 2. wielokrotne rekonstruowanie jego przebiegu, 3. większy odstęp czasu od 
wprowadzenia fałszywej informacji do jej wydobycia  

Amnezja - czasowe albo trwałe zaburzenie jednego bądź wielu systemów pamięciowych; głównie w wyniku 
uszkodzenia płatów czołowych, skroniowych i hipokampa. Trudności w transferze inf. z pamięci krotko- do 
długotrwałej, co jest niezbędne w werbalizacji pamięci deklaratywnej. 

  Pacjent H.M. – uszkodzenie ciała migdałowatego i hipokampa - struktur związanych z utrwalaniem nowych 

śladów pamięciowych 

 

Baddeley i Warrington

 – zaburzeniu podlega efekt pierwszeństwa, efekt świeżości bez zmian 

  Pamięć proceduralna – podkorowy obszar zwojów podstawy 
  Chorzy na Parkinsona (uszkodzone zwoje podstawy)- zaburzenia czynności o charakterze proceduralnym 
  Choroba Alzhaimera – specyficzne zaburzenia pamięci niedeklaratywnej; wiedza proceduralna właściwie 

nienaruszona, zaburzeniu ulegają natomiast poprzedzanie semantyczne; ubytki w pamięci deklaratywnej 

 
 
 

Rozdział 10. Myślenie i rozumowanie 

 
 
 

Myślenie to proces łączenia elementów poznawczej reprezentacji świata (obrazów, pojęć lub sądów) w dłuższe ciągi. 
Tak utworzony ciąg zastępy realne, obserwowalne zachowanie w rzeczywistym świecie fizycznym lub społecznym, 
uwalniając nas od konieczności ponoszenia natychmiastowych skutków własnych działań. 
 
Rozumowanie jest procesem formułowania wniosku na podstawie przesłanek, czyli z wykorzystaniem uprzednio 
nabytej lub powszechnie dostępnej wiedzy 
 
Istota myślenia 

 

Nęcka

 – myślenie jest jednym z narzędzi budowania modeli mentalnych – zawiera alternatywne wersje 

wydarzeń, które mogłyby być skutkiem konkretnych działań. Jest taż narzędziem wirtualnego testowania tych 
modeli 

background image

 

34 

 

Pinker

 – nie ma dużej różnicy pomiędzy problemami, z jakimi borykali się nasi przodkowie w długim procesie 

antropogenezy a rozwiązywaniem abstrakcyjnych problemów, z jakim borykamy się dziś 
egzaptacja – proces adaptacji struktur mózgowych do zadań, które pierwotnie nie były im stawiane 

 

Cole

 – badanie na przedstawicielach plemienia Kpelle – różnice w myśleniu w sytuacjach naturalnych i 

abstrakcyjnych 

- utajona „definicja” inteligencji w danej kulturze wpływa na to, jakie zachowania będą w niej cenione i 
wzmacniane; definicja ta jest ściśle związana z potrzebami i celami danej kultury 

 

Carraher, Scheliman

 – powiązanie treści problemu z dotychczasowymi doświadczeniami badanego wpływa 

pozytywnie na poprawność rozwiązania problemu 

 

Ceci i Ruiz

 – eksperci w jednej dziedzinie nie potrafili dokonać transferu swojej wiedzy na inną dziedzinę, mimo 

że stawiane przed nimi problemy były izomorficzne, tj. identyczne w swojej strukturze głębokiej 

 

Ceci

 – istotny wpływ na efektywność myślenia ma motywacja 

 

Tobby i Cosmides

 – racjonalnośc ekologiczna – niepełne dostosowanie ludzkiego umysłu do myślenia 

abstrakcyjnego, w przeciwieństwie do znakomitego dostosowania do myślenia praktycznego 

  Trzy rodzaje modeli myślenia: 

modele deskryptywne – ich celem jest opis procesu myślenia w jego rzeczywistej postaci ze wszystkimi 
systematycznymi błędami i uproszczeniami; podstawowa forma ekspresji – heurystyki, czyli uproszczone reguły 
postępowania, stosowane w konkretnych sytuacjach 
modele preskryptywne – dotyczą poprawności z punktu widzenia stosowanych heurystyk (zastosowanie 
heurystyki dostosowanej do charakteru zadania) 
modele normatywne - dotyczą poprawności myślenia z punktu widzenia pewnego systemu norm, którym 
może być np. rachunek prawdopodobieństwa; czasochłonne i bardziej wysiłkowe niż zastosowanie prostszych 
heurystyk 

 

Maruszewski

 – krytykuje dwie podstawowe właściwości myślenia w rozumowaniu potocznym: to, że myślenie 

jest procesem świadomym oraz kontrolowany charakter procesu myślenia (intruzje w myśleniu) 

Rodzaje myślenia  

  David Berlyne – dwa rodzaje myślenia: autystyczne i realistyczne 

myślenie autystyczne – nie jest nastawione na osiągniecie konkretnego efektu; charakterystyczne dla stanu 
relaksacji, kiedy myślimy o przysłowiowych niebieskich migdałach; pozwala fantazjować i zastępczo zaspokajać 
potrzeby, które chwilowo nie są możliwe do zaspokojenia 
myślenie realistyczne – uwzględnia ograniczenia nakładane przez rzeczywistość, jest ukierunkowanie na 
osiągnięcie jakiegoś celu (np. rozwiązanie problemów) 

 

Otto Sezl

 – podział myślenia na produktywne i reproduktywne 

myślenie produktywne – efektem jest wytworzenie nowych treści intelektualnych; nowość może dotyczyć 
albo wytworu będącego efektem myślenia albo procesu poznawczego, który do tego wytworu doprowadził; 
treść i wynik m.p. są nowe z punktu widzenia dotychczasowej wiedzy podmiotu myślącego, ale nie koniecznie z 
punktu widzenia innych ludzi 
myślenie reproduktywne – sprowadza się do różnych form odtwarzania przeszłego doświadczenia (np. 
wyciągnięcie pierwiastka kwadratowego z liczby 256, sporządzenie rutynowego raportu) 

  podział myślenia na twórcze i odtwórcze 

myślenie twórcze – rodzaj myślenia, którego wynik jest oceniany jako nowy i wartościowy w sensie 
poznawczym, estetycznym, etycznym albo użytkowy (Nęcka)  
myślenie odtwórcze – aktywność umysłowa, której wynik nie zyskał uznania jako nowy i wartościowy dla 
społeczności  

  myślenie krytyczne – jest rodzajem myślenia realistycznego ukierunkowanego na specyficzny cel, jakim jest 

ewaluacja; jego celem jest rzetelna i realistyczna ocena istotnych aspektów aktywności intelektualnej 
człowieka;  

- 

Sternberg

 – w przypadku, gdy myślenie krytyczne dotyczy samego siebie uważane jest wtedy za proces 

metapoznawczy 
myślenie krytyczne 

 krytyczna refleksja – ocena relacji między tym, jak działamy, a tym, co jest w danej 

kulturze cenione jako spełniające kryteria etyczne 

Podział oparty na kryterium rozwojowym  

  dwa rodzaje myślenia 

- sensoryczno-motoryczne – przetwarzanie informacji ograniczone do bodźców rejestrowanych sensorycznie w 
danym momencie, a operacje na nich dokonywane mają postać czynności eksploracyjnych 

background image

 

35 

- wyobrażeniowo-pojęciowe – dojrzała forma myślenia, charakterystyczną wyłącznie dla człowieka od pewnego 
stadium rozwoju, gdzie wyobraźnia i pojęcia zajmują  miejsce spostrzeżeń, a abstrakcyjne operacje przejmują 
rolę czynności motorycznych 

  klasyfikacje myślenia według 

Piageta

 

- stadium myślenia sensoryczno-motorycznego 
- stadium przedoperacyjne – rozwój myślenia pojęciowego 
- stadium operacji konkretnych – umiejętność myślenia logicznego, odwracalność operacji myślenia (dokonanie 
w umyśle odwróconego działania i wyprowadzenia logicznego wniosku) oraz decentracja (uwzględnienie 
wmyśleniu więcej niż jednej cechy obiektów, a nawet gradacji ich ważności  
- stadium operacji formalnych – przeniesienie zdolności wykształconych w poprzednim stadium na obiekty 
abstrakcyjne 

  myślenie postformalne (dialektyczne) – formułowanie w myśleniu tez i antytez oraz ich późniejszego 

syntetyzowania, które może być podstawą sformułowania kolejnej tezy, a dla niej stosownej antytezy itd. 

Teorie myślenia 

  teoria 

Berlyne’a

 – myślenie jest ciągiem symbolicznych bodźców i reakcji; symboliczny bodziec to taki, który 

posiada znaczenie i wywołuje reakcję, kiedy fizycznie bodziec nie jest obecny; reakcja symboliczna – r. 
wywołana bodźcem symbolicznym (np. mowa, gesty, czynności obrzędowe) 

myślenie typu S – jeżeli reakcje nawykowe rutynowo uruchamiane w danej kategorii sytuacji, w wyniku 
procesu myślenia przenoszone są na inna kategorię sytuacji (zbliżone do m. reproduktywnego) 
myślenie typu R – podmiot wykonuje reakcję lub sekwencję reakcji, której nigdy wcześniej nie wykonywał 
(zbliżone do m. produktywnego) 
 
Dwie grupy procesów poznawczych wzbogacające myślenie: 
- zbieranie informacji – wypełnianie luk informacyjnych w aktualnej sytuacji bodźcowej (zachowania 
eksploracyjne i zachowania poznawcze)  
- odrzucanie informacji – selekcja uwagowa i abstrakcja (mechanizm redukcji różnorodności przez ignorowanie 
różnic) 

  teoria 

Barona

 – myślenie składa się z dwóch grup operacji: 

1) poszukiwania 

możliwości – potencjalne możliwości odpowiedzi na zadane pytania, dopuszczalne sposoby 
rozwiązywania początkowego stanu wątpliwości czy niepewności  

dowodów – wszelkie informacje pomocne w ustaleniu zakresu, w którym określona możliwość spełnia 
założone cele 

celów – stanowią kryteria czy standardy oceny możliwości 

2) wnioskowania 
 
Dowody wpływają na „moc” możliwości , ale z uwzględnieniem ich wag, które wynikają z realizowanych celów. 

Elementy struktury myślenia 

  Badanie struktury myślenia polega na wyróżnianiu składników budulcowych tego procesu oraz sposobu 

(reguł)ich łączenia 

  Właściwości analizy struktury myślenia: 

- materiał – rodzaj informacji przetwarzanych w procesie myślenia, który charakteryzuje się określoną formą 
reprezentacji (konkretno-obrazowa vs. abstrakcyjna) i treścią (drzewo vs. prawda) 
- operacje umysłowe – przekształcenia dokonywane na reprezentacjach umysłowych 
- reguły – sposoby uporządkowania łańcucha operacji umysłowych, składających się na proces myślenia  

Operacje i strategie 

  Do lat 60. XX w. uważano, że myślenie można sprowadzić do dwóch grup operacji: analizy (proces 

dekompozycji złożonej całości na jej elementarne części) i syntezy. 

  Ponadto wyróżniono 3 operacje pochodne względem analizy i syntezy: porównywanie, abstrahowanie i 

uogólnianie 

 

Berlyne

 – w przebiegu procesu myślenia wyróżnić można: 

ogniwa – poszczególne stany wiedzy składające się na cały proces umysłowy 
operacje – przekształcenie jednego stanu ogniwa w drugi 

 

- operacje kluczowe – są koniecznym warunkiem osiągnięcia celu 

  Łańcuch operacji symbolicznych posiada dwie charakterystyczne właściwości: 

pętle – operacje nie powodujące zmiany w jego ogniwach  

background image

 

36 

  - I rodzaju – polega na cofnięciu się do poprzedniego stanu 

- II rodzaju – polega na wykonaniu operacji tożsamościowej (nie powoduje żadnej zmiany)  

rozgałęzienia – powstają, gdy w wyniku jakiejś operacji mogą zostać wypracowane różne stany wiedzy; 
decydują o alternatywnym charakterze myślenia  

Reguły, algorytmy i heurystyki 

  Reguły to sposoby uporządkowania łańcucha operacji umysłowych, składających się na proces myślenia 
  Algorytm jest jednoznacznym i niezawodnym przepisem działania, zawierającym skończona sekwencję 

operacji, jaką należy wykonać, aby osiągnąć określony cel; właściwości: 
- niezawodny – prowadzi do uzyskanie jednoznacznego rezultatu w danej klasie zadań 
dobrze określony – jednoznaczna procedura postępowania  
masowy – można go stosować do każdego problemu z danej klasy 
jest zestawem sztywnych reguł – brak choćby niewielkiej części danych powoduje, że uzyskany wynik jest 
błędny albo w ogóle niemożliwy do uzyskania 

  Heurystyka jest nieformalną, spekulatywną, uproszczoną albo skrótową metodą rozwiązywania problemów lub 

podejmowania decyzji; jest zawodna i bardziej ryzykowna od algorytmu oraz słabo określona, ma 
zastosowanie w przypadku problemów, których nie da się jednoznacznie i kompleksowo określić; dwa powody 
stosowania heurystyk: 
złożoność sytuacji nie pozwala na wykonanie algorytmu 
- oszczędność czasu i wysiłku poznawczego 

 

Berlyne

 – wyróżnił 4 podstawowe reguły myślenia, tworzące grupę transformacji: 

składanie transformacji – zakłada istnienie takiej transformacji, która prowadzi do identycznego wyniku, jak 
dwie jej składowe 

3

= (

1

transformacja tożsamościowa 

0

 – złożona z dowolną inną transformacją 

i

, daje taki rezultat, jak 

zastosowanie wyłącznie 

i

; zatem (

0

) = (

i

) = 

i

 

 

odwracalność transformacji – zakłada istnienie przekształcenia 

p

 odwrotnego w stosunku do 

i

, a ich łączne 

zastosowanie daje wynik transformacji tożsamościowej 

0

, znaczenie odgrywa kolejność zastosowanych 

transformacji 

p

 i 

i

 

 

łączenie transformacji – dowolne trzy transformacje, połączone dowolnie parami na zasadzie składania 
transformacji, dają ten sam rezultat 

 
Rozumowanie warunkowe- jest częścią logiki zajmującą tzw. rachunkiem zdań. 
Implikacja- funktor używany w rachunku zdań; składa się z dwóch zdań: 
poprzednik 
- następnik
 
połączonych spójnikiem „ jeżeli… to…” 
Aby implikacja była prawdziwa, zajście poprzednika jest warunkiem wystarczającym (ale niekoniecznym) dla zajścia 
następnika, ale zajście następnika jest koniecznym skutkiem uprzedniego zajścia poprzednika. 
 
Implikacje można w sposób formalny wyrazić następująco: 
„jeżeli p, to q”, a każdy z jej argumentów może przyjąć dwie wartości- prawda albo fałsz. 
 
Schematy wnioskowania: 

1)  Modus Ponens: 
Jeżeli p, to q 

więc: q 
2)  Potwierdzenie Następnika: 
Jeżeli p, to q 
q  
więc: p 
3)  Potwierdzenie Poprzednika: 
Jeżeli p, to q 
nie p 
więc: nie q 
 

background image

 

37 

4)  Modus Tollens: 
Jeżeli p, to q 
nie q 
więc: nie p  
 

schematy 1 i 4 są niezawodne, ich użycie jest uprawnione i konkluzywne z logicznego punktu widzenia, 
wnioskowanie z ich użyciem jest poprawne, co nie oznacza, że implikacja jako całość jest prawdziwa bądź fałszywa 
 
 
Zadanie selekcyjne (Wason) wymaga weryfikacji prawdziwości prostej hipotezy, że jeśli na kartce z jednej strony 
napisano konkretną literę (np. A), to na drugiej stronie musi być napisana liczba parzysta. Osoba badana widzi cztery 
kartki, dwie odkryte po stronie liczby, z dwie po stronie litery. Musi wskazać te kartki, które koniecznie trzeba odkryć, 
aby sprawdzić, czy hipoteza jest prawdziwa. 
 
Większość ludzi przy wykonywaniu zadania odwołuje się do konfirmacyjnej strategii testowania hipotez ( 
poszukiwanie przypadków potwierdzających regułę, przy niedostatecznym uwrażliwieniu na przypadki, które jej 
przeczą). Tymczasem mnożenie przypadków potwierdzających nie daje gwarancji prawdziwości hipotezy, bo 
wystarczy jeden przypadek przeczący hipotezie, aby ją obalić. 
Zmiana treści implikacji z „abstrakcyjnej” na „życiową” znacznie zwiększa poprawność rozumowania (

Griggs, Cox

). 

W życiowej wersji więcej osób badanych wykonało zadanie poprawnie (efekt materiału tematycznego). 
Jednak, jeśli implikacja wymaga specyficznej wiedzy, efekt materiału tematycznego jest słabszy, a nawet zupełnie 
zanika. 
 
Implikacja jest poprawnie używana w specyficznych sytuacjach społecznych (

Cosmides

). 

 
Czynnikiem wpływającym na poprawność rozumowania jest również jego kontekst (

Braine

Specyficzna postać zadań dedukcyjnych może stanowić dla osób badanych ukrytą wskazówkę, aby we wnioskowaniu 
wykorzystać jedynie te informacje, które są wyrażone wprost w przesłankach i wniosku. 
 
Ale kontekst może też się przyczynić do zmniejszenia poprawności rozumowania (

Byrne

), jeśli będą podane 

informacje nieistotne. 
 

  Rozumowanie dedukcyjne 

 
Człowiek jest z natury istotą racjonalną, co przekłada się na zdolność efektywnego używania reguł logiki (logika 
mentalna
). 
 
Jeśli zdanie zostanie rozpoznane jako wymagające zastosowania reguł logicznych, uruchamia się program 
rozumowania: 

1.  identyfikacja logiczna struktury przesłanek, ich treść jest przekładana na abstrakcyjną formę sądów, 

operujących abstrakcyjnymi symbolami 

2.  jeżeli struktura konkretnego zdania zostanie uznana za dopasowaną do jakiejś reguły umysłowej, zostaje 

uruchamiany odpowiedni program rozumowania; efektem jest wygenerowanie konkluzji, sformułowanej w 
języku abstrakcyjnych symboli 

3.  przełożenie wniosku z formy abstrakcyjnej na język przesłanek. 

 
Ludzie w sposób naturalny myślą logicznie, błędy popełniają raczej sporadycznie (

Braine

). 

Rozumowanie bezpośrednie- zastosowanie w konkretnej sytuacji ogólnych schematów opartych na abstrakcyjnych 
regułach. 
Schematy biorące udział w rozumowaniu bezpośrednim dzielą się na: 
- rdzenne (takie jak modus ponens, korzystają z fundamentalnych reguł logicznych) 
- posiłkowe (pełnią funkcje pomocnicze i są stosowane do generowania wniosków wspomagających działanie 
schematów podstawowych) 
- inną kategorią są schematy niezgodności( stosowane do testowania zawartości pamięci roboczej pod kątem 
detekcji wniosków nieuprawnionych)  
 

background image

 

38 

 
Rozumowanie pośrednie- 
schematy wnioskowania wykraczają poza reguły logiki umysłowej 
 
Rodzaje i źródła powstawania błędów w rozumowaniu 

1)  błędy rozumienia- wynika z niepoprawnej interpretacji związków między informacjami zawartymi w 

przesłankach i ewentualnie we wniosku 

2)  błędy przetwarzania- powstają w wyniku dekoncentracji uwagi albo niskiej wydolności procesu 

przechowywania i obróbki informacji w pamięci roboczej 

3)  błędy nieadekwatności heurystyki- wynikają z niewłaściwego doboru strategii, które odpowiadają za 

koordynację schematów rozumowania w konkretnej sytuacji 

 

Teoria modeli mentalnych (

Johnson- Laird

Ludzie często wyobrażają sobie konkretne przykłady pojęć użytych w sylogizmach wraz z zachodzącymi między nimi 
relacjami, te wyobrażenia są umysłowymi modelami sytuacji opisanej w zadaniu, bądź zaistniałej w rzeczywistości. 
 
Wg tej koncepcji rozumowanie polega na konstruowaniu i manipulacji tzw. modelami mentalnymi- quasi-analogowa 
reprezentacja sytuacja problemowa, opisana w zadaniu logicznym albo dostrzeżona w sytuacji życia codziennego, 
która zawiera minimalną ilość informacji potrzebnej do rozumienia tej sytuacji. 
 
Model umysłowy: 
- elementy sytuacji problemowej mają swoje odpowiedniki w modelu umysłowym 
- model umysłowy odzwierciedla strukturę sytuacji problemowej 
- możliwe jest zbudowanie większej liczby modeli umysłowych, dla jednego problemu 
- możliwe jest włączenie niektórych elementów reprezentacji obiektów, o których mowa w przesłankach 
 
Etapy rozumowania: 

1)  skonstruowanie modelu stanu rzeczy opisanego w przesłankach 
2)  sprawdzenie czy domniemany wniosek jest zgodny z tym modelem 
3)  próba falsyfikacji konkluzji, poprzez skonstruowanie alternatywnych modleli wynikających z przesłanek 

 
Racjonalność nie polega na stosowaniu abstrakcyjnych reguł logicznych, lecz poszukiwaniu większej liczby modeli, 
prawidłowo ujmujących informacje zawarte w przesłankach. Chodzi w szczególności o uwolnienie się od modelu 
początkowego, czemu służy poszukiwanie kontrprzykładów- mechanizm do falsyfikacji hipotez.  
 
Zalety teorii: 
- nie wymaga przyjmowania założeń wątpliwych lub niefalsyfikowalnych 
- dobrze radzi sobie z wyjaśnieniem błędów negacji poprzednika i potwierdzenia następnika, nie potrzebując w tym 
celu właściwie żadnych dodatkowych założeń 
- świetnie radzi sobie z wyjaśnianiem wpływu treści o kontekstu na wynik rozumowania 
- jest stosowana do wyjaśniania złożonych procesów poznawczych 
 
Krytyka: 
- niedopracowana 
- nie opisuje mechanizmu poprawnego rozumowania, lecz koncentruje się na wyjaśnieniu błędów 
- niejasny mechanizm poszukiwania kontrprzykładów, kontrprzykładów nawet samych modeli mentalnych 

  Rozumowanie indukcyjne 

 
Istotą jest dokonywanie nieuprawnionych (wyprowadzonych na podstawie skończonej liczby obserwacji) uogólnień. 
 
Reguła relacyjna- osobom badanym prezentowany był ciąg liczb, zestawionych wg prostej reguły, np. 2 4 6 – 
zadaniem było podanie innego ciągu wg reguły ciągu wzorcowego oraz próba werbalizacji reguły. 
 
Tendencja konfirmacyjna- pomimo prostoty reguły ciągu wzorcowego, poziom poprawności wykonania okazał się 
niski; osoby badane szybko stawiały hipotezę, a następnie generowały ciąg zgodny z jej treścią, tworzyły, więc ciągi, 
które mogły potwierdzić wstępną hipotezę. 
 

 

background image

 

39 

Rozumowanie przez analogię 
Analogia-  związek  między  dwoma  obiektami,  oparty  na  podobieństwie  ich  wewnętrznej  struktury  lub 
podobieństwie
 relacji zachodzących w obrębie porównywanych członów. 
podobieństwo celu, okoliczności, skutków 
A jest analogiczne względem B, jeśli A i B są zbiorami i jeśli relacja Ri porządkująca elementy zbioru A jest podobna 
do relacji Ri’ porządkującej elementy zbioru B 
wymaga głównie podobieństwa wewnętrznych struktur porównywanych członów, a nie związku między obiektami 
opartego na podobieństwie zewnętrznym ; nie zachodzi ze względu na pojedynczą cechę 
dzięki niej nabywamy nową wiedzę 
jeden z centralnych mechanizmów regulacji psychicznej 
szczególny  rodzaj  indukcji:  najpierw  od  szczegółu  do  ogółu  (abstrahowanie  relacji  między  członami  relacji  w 
dziedzinie  analogii  Y)  a  następnie  od  ogółu  do  szczegółu  (przeniesienie  wyabstrahowanej  relacji  na  przestrzeń 
semantyczną dziedziny Y) 
zjawisko transferu wiedzy, czyli przeniesienia jej na zupełnie nową dziedzinę- charakter pozytywny lub negatywny 
 

D. Gentner

-  teoria  odwzorowania struktury; najważniejsze  jest  dostrzeżenie podobieństwa relacji zachodzących 

między elementami w obrębie dwóch różnych dziedzin (relacja ich wewnętrznej struktury) 
inne stanowisko- uchwycenie odpowiedniości między strukturami dwóch dziedzin nie wystarczy-potrzeba analizy 
podobieństw niższego rzędu, w tym cech powierzchownych obu dziedzin 
obecnie-  w  przypadku  dziedzin  słabo  znanych  dostrzegane  podobieństwo  zewnętrzne  i  dopiero  wraz  z 
nabywaniem doświadczeń w obrębie funkcji czy mechanizmów 
pomyśle  przeniesienie  wiedzy  zależy  od  abstrakcyjnych  schematów  rozumowania,  które  są  ogólnym 
reprezentacjami  rozwiązań  możliwych  do  zastosowania  w  różnych  sytuacjach-  im  bogatsze  schematy  tym  łatwiej 
dostrzegać analogię 
 

Rumelhart  i  Abrahamson

  testowali  hipotezę,  w  myśl,  której  rozumowanie  przez  analogię  wymaga  wydawania 

sądów na temat podobieństwa pomiędzy pojęciami ( konc. semantyczna- stopień podobieństwa zależy od odległości 
pojęć w niej zawartych) 
-autorzy    uznali,  że  w  wypadku  wnioskowania  przez  analogię  zadanie  polega  na  znalezieniu  takiego  wektora  w 
wielowymiarowej przestrzeni pamięci, który miałby taką samą długość  dla relacji A:B jak i do relacji C:x, szukamy x; 
manipulowano  eksperymentalnie  odległością  alternatywnych  członów  x1-  x4,  wyprowadzoną  z  wielowymiarowym 
modelu Henley; (czyli nie tylko odległość pomiędzy pkt w przestrzeni decyduje, ale i pomiędzy alternatywami) 
wyniki potwierdziły model, tolerancja pomiędzy C a x-ami wynosi ok., 0,12 jedn.  
 

Sternberg

,  użył  analizy  komponentowej  i  wielu  zadań  wymagających  rozumowania  przez  analogię,  uzyskał 

najlepsze dopasowanie danych-80% wyj waniancji 
Rekonstrukcja procesu rozumowania przez analogię: 

1.  osoba badana koduje człony A i B analogii i następuje przywołanie z LTM do WM niektórych atrybutów tych 

pojęć 

2.  w procesie wnioskowania człony A i B podlegają kompletnemu porównaniu ze względu na atrybuty 

wydobyte z WM 

3.  odwzorowanie polega na znalezieniu relacji pomiędzy członem A i C analogii, co wymaga wcześniejszego 

kodowania członu C i przywołania jego atrybutów porównanie atrybutów w ramach odwzorowania 
przebiega z uwzględnieniem relacji A: B i dokonuje się dla jednej wyróżnionej wcześniej relacji 

4.  jeśli relacja okaże się istotna z uwzględnieniem C, następuje przejście do dekodowania członu D i 

zastosowania wykrytej relacji w stosunku do tego elementu 

5.  proces kończy się emisją reakcji 
6.  jeśli relacja C:D nie spełnia wymagań podobieństwa A:B to następuje powtórzenie cyklu w pętli 

rozpoczynającej się odwzorowaniem, z uwzględnieniem innej relacji A:B, aż do znalezienia poprawnego 
rozwiązania 

najistotniejsza rola składnika odwzorowania 
 
CO ŁĄCZY RÓŻNE FORMY ROZUMOWANIA??? 
Integracja relacyjna- zestawienie relacji między obiektami albo zdarzeniami i manipulowanie nimi 
 
Wlatz i współpracownicy 
zadanie dedukcyjne- wnioskowanie przechodnie 
zadanie indukcyjne- matrix problem 

background image

 

40 

3 grupy pacjentów: 

1.  uszkodzenie kory przedczołowej 
2.  uszkodzenie przyśrodkowej części płata skroniowego 
3.  normalni 

zwiększenie trudności zadań powodowało znaczne obniżenie poprawności u 1, odwołanie do WM 
 
ROZUMOWANIE PROBABILISTYCZNE 
efekt siły przekonań- treść logicznego wniosku pozostaje w związku z wiedzą czy przekonaniami osób bzdanych 
 
ROZUMOWANIE NIEFORMALNE 
zdecydowanie odbiega od tego, które przyjmują logicy; włączanie nowych wiadomości do przesłanek 
 
 
 

Rozdział 13. Język i mowa 

 

 
Język- system kodowania znaczeń poprzez wykorzystanie skończonego zbioru symboli (dźwięków mowy lub znaków 
pisma). Operowanie na symbolach podlega regułom gramatycznym, swoistym dla każdego języka naturalnego lub 
sztucznego. 
Mowa- używanie języka w celu przekazywania znaczeń oraz wpływania na zachowanie cudze lub własne. W innym 
ujęciu mowa to zdolność gatunku ludzkiego do przekazywania i odbierania komunikatów językowych za pomocą 
wyrażeń wokalnych lub znaków pisma. 
Procesy przetwarzania języka- procesy przetwarzania informacji biorące udział w tworzeniu wyrażeń językowych i 
ich analizie. 
 
Język pełni dwie podstawowe funkcje psychiczne: 

 

komunikacyjna- język to medium porozumiewania się, czyli wzajemnego przekazywania sobie informacji; 
porozumiewanie się ma postać: 
-  niewerbalną (mimika, pantomimika, postawa ciała itp.) 
-  parawerbalną (ton głosu, pauzy, intonacja) 
-  komunikatów stricte językowych 
zasada prymatu komunikacji niewerbalnej nad werbalną- niekiedy sens komunikatu niewerbalnego jest 
sprzeczny z treścią przekazywaną za pośrednictwem języka, np. mówimy do dziecka „chodź tu mały brzydalu”- 
komunikat negatywny jednak dzięki pieszczotliwej artykulacji dziecko przybiega; komunikaty niewerbalne nie 
muszą być sprzeczne z werbalnymi- zwykle wzajemnie się uzupełniają i wzmacniają. 

 

poznawcza- polega na wspomaganiu procesów przetwarzania informacji (głównie myślenia i rozumowania); 
dzięki językowi możliwe jest myślenie pojęciowe, którego składnikami są pojęcia, sądy i schematy; myślenie 
abstrakcyjne nie jest tożsame z używaniem języka, ale nie byłoby bez niego możliwe; język pełni ważną rolę w 
procesach kontroli poznawczej i samokontroli emocjonalnej (panowanie nad sobą w postaci nakazów i zakazów); 
kategoryzacja 

 
Inny podział funkcji języka: 

 

ekspresyjna- wyrażanie stanów podmiotu mówiącego (emocjonalnych-czuję; motywacyjnych-chcę); nakazy, 
zakazy, polecenia, groźby i inne wyrażenia mające na celu wpływanie na działanie innych ludzi lub zwierząt to 
przejawy ekspresyjnej funkcji języka. 

 

referencjalna- język może służyć do opisu rzeczywistości pozajęzykowej, też do opisu samego siebie; 
referencjalnośc
- odnoszenie się symbolu oznaczającego (słowa) do przedmiotu oznaczanego (desygnat); relacje 
słowo-przedmiot tworzą znaczenie; słowo, desygnat i znaczenie składają się na trójkąt semantyczny. 

 
Cechy języka:  
system złożonydynamiczny (ciągle ewoluujący), produktywny (korzystając z ograniczonego zasobu słów jesteśmy w 
stanie stworzyć nieskończoną liczbę zdań (komunikatów)-> niekiedy produktywność prowadzi do twórczości 
językowej
 (np. dziecko „Co foczki ją?”). 
 
 

background image

 

41 

Przyczyny dynamicznej zmiany języka: 

 

Zmiany polityczne, kulturowe i obyczajowe 

 

Eufemizacja i poprawność polityczna, np. sprzątaczka-> osoba sprzątająca 

 

Bariera oni-my, gwary środowiskowe działające jako przeszkoda dla niewtajemniczonych. 

 
Poziomy języka: 

 

fonologiczny- obejmuje podstawowe jednostki budulcowe komunikatu werbalnego (głoski, fonemy); każdy język 
buduje swoje przekazy korzystając z około 30-40 głosek 

 

semantyczny- obejmuje ulepione z głosek lub znaków pisma elementarne składniki znaczenia (morfemy (rdzeń)- 
składniki słów, niosące pewną treść); na tym poziomie analizy języka istotne staje się znaczenie, definiowane jako 
fragment wiedzy o świecie, wyrażonej pojęciami i sądami: 
-  znaczenie denotacyjne- kiedy wiedza dotyczy faktów 
-  znaczenie konotacyjne- kiedy wiedza dotyczy emocji i skojarzeń 
np. denotacja słowa dom to budynek, a konotacja to bogata siec skojarzeń (ciepły, rodzinny

 

syntaktyczny- składa się z fraz i zdań, połączonych według reguł gramatyki; zdanie składa się z: 
-  frazy nominalnej- określającej sprawcę i jego atrybuty 
-  frazy czasownikowej- określającej czynność i jej okoliczności 
Strukturę zdania możemy zapisać w postaci drzewka derywacyjnego. 

 

pragmatyczny- dotyczy społecznych aspektów języka, a właściwie jego użycia w funkcji komunikacyjnej- czyli co 
komu i w jakim celu chcemy powiedzieć. Jest on szczególnie istotny w przypadku wyrażeń ironicznych czy 
sarkastycznych, np. „no to pieknie!”. 

 
Niektórzy wyróżniają 2 warstwy funkcjonowania języka (

Noam Chomsky

-teoria gramatyki generatywnej

 

struktura powierzchniowa- to rzeczywiste zdanie utworzone według obowiązujących reguł gramat. 

 

struktura głęboka- to abstrakcyjna postać tego zdania, wyrażona w postaci drzewka derywacyjnego 

Przekształcenie struktury głębokiej w powierzchniową jest możliwe dzięki regułom transformacji); umysł 
przechowuje sens zdarzenia na poziomie głębokim, co wystarczy, aby w razie potrzeby wygenerować odpowiadające 
temu sensowi struktury powierzchniowe; perspektywa mówcy: transformacja z głębokiego znaczenia na 
powierzchniową strukturę syntaktyczną zdania<- z perspektywy słuchacza odwrotnie; opowiadając jakąś historię, za 
każdym razem generujemy nowy zestaw struktur powierzchniowych. 
 
Hipoteza determinizmu językowego (hipoteza 

Sapira- Whorfa

)- język zasadniczo wpływa na to, jak spostrzegamy 

rzeczywistość, przetwarzamy informacje, formułujemy sądy lub korzystamy z zasobów pamięci; wielu pojęć nie da się 
przełożyć z jednego języka na inny; sposób w jaki mówimy determinuje to, jak widzimy świat i myślimy o nim; 
relatywizm językowy- nie ma dwóch identycznych języków, więc nie ma dwóch jednakowych sposobów 
poznawczego reprezentowania rzeczywistości, przede wszystkim społecznej. 
 
Koncepcje przyswajania języka: 

 

behawioryzm (teoria uczeniowa): 
-  warunkowanie klasyczne  
    *

Iwan Pawłow

- język jako drugi system sygnałowy- w wyniku warunkowania wyższego rzędu możemy                

    reagować strachem już nie tylko na sygnał zagrożenia, ale również na sygnał zapowiadający ten sygnał  
    (słowa jak „uważaj”, „groźne”)   
    *

Hobart Mowrer

- wyróżnił 4 grupy sytuacji odpowiadających znaczeniom językowym: groźba,  

    obietnica, ulga, rozczarowanie-tymi terminami opisał przypadki, gdy słowo sygnalizuje  
    niebezpieczeństwo, nagrodę, minięcie zagrożenia lub brak zapowiadanej nagrody. 
-  warunkowanie sprawcze- człowiek spontanicznie używa pewnych dźwięków- najpierw pojedynczych głosek i 
sylab, potem słów i pełnych zdań- otrzymując w zamian wzmocnienie pozytywne lub negatywne; dzięki 
stosowaniu reguł kształtowania złożonych reakcji, dorośli są w stanie wykształcić u dzieci umiejętność 
posługiwania się długimi, skomplikowanymi strukturami językowymi. Czynnikiem wzmacniającym może być tutaj 
sam fakt naśladowania innego osobnika, w szczególności kogoś ważnego. 

 

poglądy natywistyczne: 
-  zdaniem 

Noama Chomsky’ego

 proces nabywania języka jest zdeterminowany wrodzonymi strukturami 

mózgowymi (urządzenie do przyswajania języka- LAD); dziecko posiada wrodzoną, ukrytą kompetencję językową,  
 

background image

 

42 

AGRUMENTY: 
* istoty języka nie tworzą słowa, lecz struktury syntaktyczne, które są ukryte a przez to trudne do 
bezpośredniego utrwalania poprzez wzmocnienia pozytywne 
* struktur gramatycznych raczej nie uczymy się wprost w sposób jawny (dziecko posługuje się już w pełni 
gramatycznym językiem, zanim pójdzie do szkoły) 
*  ludzie-zwłaszcza dzieci- używają zdań, których nie mieli okazji wcześniej usłyszeć 
-  Steven Linker- człowiek ma instynktowną zdolność do mówienia (instynkt językowy), czyli wrodzoną gotowość 
do wykształcenia określonych struktur; dzięki ekspozycji na komunikaty językowe, która musi nastąpić w okresie 
sensytywnym, 
uruchamiają się odpowiednie struktury mózgowe, w wyniku czego proces przyswajania języka 
uzyskuje nadzwyczajne przyspieszenie i wydajność.  
-  mowa ukierunkowana na dziecko- polega na modelowaniu (a nie karaniu) zachowań werbalnych dziecka w 
następstwie wielokrotnego powtarzania krótkich, ale syntaktycznie poprawnych zdań, np. „Kot mleko”- „Tak, kot 
pije mleko”.  

 
Stadia przyswajania języka: 
-  proces przyswajania pierwszego języka jest w zasadzie ukończony u progu 4 roku życia dziecka (chodzi tu o 
kompetencję językową- kompetencja komunikacyjna rozwija się niekiedy do okresu adolescencji)  

 

pierwszy rok życia dziecka to ćwiczenia w zakresie fonologii, prozodii (charakterystyczny dla każdego języka typ 
„zaśpiewu”- składa się na nią intonacja, a także akcent i rytm), intonacji 

   *  głużenie- wypowiadanie pojedynczych fonemów 
   *  gaworzenie- wypowiadanie pojedynczych sylab 

 

drugi rok życia to próby konstruowania niegramatycznych zdań z ukrytą syntaksą 

-  pierwsze słowa pojawiają się zwykle między 12-14 miesiącem życia, choć przejawy ich rozumienia już po 9 
miesiącach od urodzenia 
-  mowa telegraficzna-mówienie pojedynczymi wyrazami lub łączenie ich w krótkie zestawy bez poprawnego 
odmieniania przez osoby, czasy, przypadki, np. „mama bawić”.  

 

trzeci rok życia to ćwiczenia w pełni gramatycznych wypowiedzi i dopasowywanie ich do potrzeb 
komunikacyjnych dziecka; dwa rodzaje błędów występujące w tym okresie dotyczą kategoryzowania i tworzenia 
struktur gramatycznych: 

   *  błąd nadrozciągłości znaczeń- włącznie w obręb kategorii obiektów, które do niej nie należą (np. nazywanie 
każdej istoty czworonożnej psem) 
   *  błąd hiperregularyzacji- dziecko ignoruje wyjątki i przypadki szczególne, stosując wszędzie regularne struktury 
gramatyczne (np. „on ma dwa braty”= dwóch braci). 
 
Dwujęzyczność i wielojęzyczność: 
- we współczesnym ujęciu dwujęzyczność i wielojęzyczność to zdolność do posługiwania się więcej niż jednym 
językiem 
-  do pewnego momentu w rozwoju poznawczym drugi język przyswajamy tak jak pierwszy, to znaczy szybko i 
bezwysiłkowo, korzystając z „instynktu językowego” 
-  kiedy minie okres sensytywny, przyswajanie drugiego języka staje się procesem powolnym i wymagającym wysiłku, 
a jego efekty nigdy nie będą idealne 
-  do kosztów dwujęzyczności zalicza się interferencję między językami- znajomość więcej niż jednego języka zwiększa 
ryzyko pomyłki w doborze słów i wyrażeń, spowalnia procesy wydobywania słów z leksykonu mentalnego i wymaga 
zwiększenia kontroli na etapie artykulacji, aby słowo z jednego języka nie „wcisnęło się” w komunikat sformułowany 
w innym języku 
-  osoby wielojęzyczne funkcjonują na wyższym poziomie świadomości metajęzykowej- osoby te wyrażają się bardziej 
precyzyjnie, ponieważ staranniej dobierają słowa i struktury składniowe 
 
Mówienie: 

 

planowanie mowy: polega na podjęciu decyzji co do sensu przekazu i intencji jego przekazania; wymaga 
uwzględnienia pragmatycznego aspektu języka;  

zasada kooperacji- mówca i słuchacz muszą ze sobą współdziałać (

Paul Grice

); 4 maksymy językowe mające ułatwić 

kooperację: 
1) maksyma ilości- komunikat powinien zawierać tyle danych, ile to konieczne- nie więcej i nie mniej  
2) maksyma jakości- mówca powinien mówić prawdę, ponieważ takie będzie prawdopodobne oczekiwanie 
słuchacza (chyba, że słuchacz zdaje sobie sprawę, że komunikat jest fałszywy to OK.) 

background image

 

43 

3) maksyma relacji- mówca powinien mówić na temat, bez dygresji i odbiegania od głównego wątku- jeśli jednak 
dygresja czemuś służy, maksyma relacji nie zostaje złamana 
4) maksyma sposobu- mówca powinien używać środków wyrazu dostępnych odbiorcy (głośna i wyraźna artykulacja, 
nieużywanie słów i wyrażeń, których słuchacz nie rozumie ze względu na brak wiedzy itp.) 
- planowanie mowy dokonuje się z uwzględnieniem wspólnej płaszczyzny czyli podzielanych przez obie strony 
konwersacji elementów wiedzy, często niejawnej- jeśli porozumiewają się osoby obce, ustalenie wspólnej 
płaszczyzny może być bardzo trudne 
-  planowanie mowy jest minimalnie przesunięte w czasie w stosunku do realizacji planu= wypowiadając 
zaplanowane wcześniej słowa, jesteśmy już mentalnie przy następnym fragmencie wypowiedzi, świadczą o tym 
przejęzyczenia, w szczególności błędy antycypacji (Piciu, co ci zrobić do misia?”) 
-  jednostką planowania mowy jest FRAZA 
-  przetwarzając frazę, mamy do czynienia ze szczególnym przypadkiem interferencji, wynikającej z wykonywania 
dwóch czynności jednocześnie (planowanie wypowiedzi- realizacja planu) 
 

 

kodowanie semantyczno- syntaktyczne:  

-  leksykalizacja- przekształcanie myśli w słowa; wymaga zaangażowania trzech poziomów języka: semantycznego, 
syntaktycznego, fonologicznego 
-  według 

Levelta

 pierwszy etap leksykalizacji polega na wyborze lemm (abstrakcyjna postać słowa obejmująca 3 

elementy: jego znaczenie, funkcję syntaktyczną przewidzianą dla niego w przyszłym zdaniu oraz wskaźniki 
fonologiczne, czyli wstępne dane dotyczące sposobu jego wymawiania) 
- dowód na obecność tego etapu- efekt końca języka- np. pytamy kogoś jak nazywa się rezygnacja osoby panującej z 
praw do tronu-> osoba nie udzieli odpowiedzi choć jest przekonana, że zna to słowo (abdykcja), co więcej niektórzy 
badani będą w stanie poprawnie określić na jaką literę zaczyna się to słowo, czyn z ilu składa się sylab- świadczy to o 
tym, że lemma zawiera nie tylko znaczenie i funkcję przyszłego słowa, ale też wskaźniki fonologiczne (jedynie 
szczątkowe wskazówki) 

 

kodowanie fonologiczne:  

-  następuje drugi etap leksykalizacji= wybór leksemów; leksem- jednostka umysłowego słownika, na który składają 
się konkretne słowa odpowiadające określonym znaczeniom (np. leksemy słowa koń to koń, konie, koniom itp.); 
leksykon mentalny- zbiór wszystkich leksemów, którymi dysponuje konkretny użytkownik języka (jeśli jest 
wielojęzyczny może dysponować więcej niż jednym leksykonem) 
-  teoria 

Levelta

etap fonologiczny obejmuje trzy podetapy: 

   * przywoływanie z pamięci głosek i układanie ich we właściwej kolejności 
   * sylabizacja i prozodyzacja wypowiedzi 
   * kodowanie fonetyczne czyli wybór odpowiednich wzorców artykulacyjnych dla każdej sylaby (w pamięci    
      mamy „sylabiarz” składający się z ok. 500 sylab) 
-  interakcyjny model mówienia- Dell twierdzi, że istnieje samoorganizująca się sieć tworzą ją znaczenia i brzmienie 
wszystkich słów, jest podobna do sieci semantycznych), zdolna do wytwarzania mowy 
 
Rozumienie przekazów językowych: 

 

złamanie kodu: 

-  pierwszym zadaniem słuchacza jest dokonanie podziału nieprzerwanego potoku głosek na jednostki (segmenty), 
odpowiadające poszczególnym słowom ->segmentacja; dokonując segmentacji słuchacz musi kierować się innymi 
wskazówkami, takimi jak prozodia (intonacja, akcent, rytm), kontekst ogólny, a przede wszystkim kontekst 
wewnątrzjęzykowy 
-  proces identyfikacji poszczególnych słów w potoku żywej mowy dobrze opisuje model kohorty- słuchacz 
rozpoznaje słowa, systematycznie zwężając listę potencjalnych „kandydatów”, czyli zmniejszając kohortę możliwych 
jednostek leksykalnych aż do momentu, gdy nie będzie innego wyboru (np. słowo wczoraj jest rozpoznawalne już po 
pierwszych czterech głoskach ‘wczo…’) 
-  w procesie deszyfracji mowy współwystępują dwie czynności: segmentacja i odczyt znaczeń zapisanych w pamięci 
semantycznej; segmentacja byłaby niemożliwa bez wstępnej hipotezy na temat znaczenia słowa: tylko znaczenie 
eliminuje kolejne elementy z kohorty, aż do momentu wyeliminowania wszystkich z wyjątkiem jednego 
-  łamanie kodu akustycznego u dorosłych posługujących się językiem ojczystym dokonuje się automatycznie i 
bezwysiłkowo, stanowi jednak poważne wyzwanie dla kogoś, kto posługuje się słabo opanowanym językiem obcym 

 

rozbiór zdania: 

-  rozbiór zdania polega na utworzeniu umysłowej reprezentacji jego treści, czyli zbudowania ‘w wyobraźni’ czegoś na 
kształt drzewna derywacyjnego  

background image

 

44 

zdania „ślepej uliczki” to szczególny rodzaj zdań dwuznacznych (np. Chłopiec odbił piłkę ręką podtrzymując kolegę)-
> zdania te tracą dwuznaczności po dodaniu przecinka 
-  zasada późnego domknięcia- odbiorca stara się domknąć frazę najpóźniej, jak się da; domykanie frazy polega na 
ustaleniu granicy, poza którą zaczyna się nowa fraza zdaniowa 
-  w momencie, gdy dokona się rozbiór zdania, użytkownik języka przechodzi na poziom, który Chomsky nazwałby 
strukturą głęboką; powierzchniowa forma wypowiedzi jest zapominana tak szybko, jak tylko zbudowana zostanie 
reprezentacja głęboka 
-  parser- struktura odpowiedzialna za rozbiór zdania; jego głowne zadanie polega na przypisaniu poszczególnym 
słowom odpowiednich funkcji, np. podmiotu, orzeczenia, dopełnienia; w przypadku języka polskiego parser 
odpowiada przede wszystkim za prawidłową interpretację wskazówek fleksyjnych (końcówki definiujące rodzaj, czas 
i tryb gramatyczny) 
 

 

budowa modelu sytuacyjnego i wnioskowanie: 

-  model sytuacyjny jest niezbędnym warunkiem zrozumienia, jeśli przekaz zawiera wiele luk wymagających 
wypełnienia przez wnioskowanie 
-  budowę modelu sytuacyjnego kształtuje wiele czynników, przede wszystkim znajomość tematu: wystarczy krótki 
fragment prozy opatrzyć tytułem aby poprawić jego zrozumienie i przechowanie treści w pamięci; dzięki tytułowi 
możliwe jest zbudowanie modelu sytuacyjnego 
-  szczególną rolę w rozumieniu przekazów językowych odgrywają schematy narracyjne, czyli elementy wiedzy 
zorganizowane ze względu na epizody; schemat narracyjny wpływa na rozumienie przekazu, jeśli określone porcje 
wiedzy nabierają sensu dopiero w kontekście całej historii 
-  procesy zaangażowane w budowanie modelu sytuacyjnego to przede wszystkim rozumowanie nieformalne, czyli 
wnioskowanie na podstawie swobodnie wybranych przesłanek, nie zawsze zwerbalizowane; mówca konstruując 
wypowiedź, przekazuje pewne treści jawnie, a inne domyślnie- odbiorca musi więc odróżnić to, co mówca chciał 
przekazać, od tego, co rzeczywiście przekazał 
-  reguły rządzące wnioskowaniem podczas rozmowy nazwano implikaturą; 

Grice

 wyróżnił dwa jej rodzaje: 

   * implikatura konwencjonalna- treść wypowiedzi (np. mówiąc koń mamy na myśli zwierze z kopytami, a  
      nie konika morskiego) 
   * implikatura konwersacyjna- polega na domyślnym, wzajemnym szanowaniem reguł dobrej komunikacji 
      (zasady kooperacji i czterech maksym konwersacyjnych) 
-  wnioskowanie w procesie rozumienia mowy pełni dwie funkcje: 
    * uzupełnianie luk w strukturze przekazu 
    * budowanie połączeń między nową wiedzą zawartą w komunikacie, a wiedzą nabytą już wcześniej 
-  komunikaty nie wprost- polecenia sformułowane w postaci pytań lub delikatnych sugestii (np. Czy mógłbyś zgasić 
światło?)-> wymagają odkrycia prawdziwych intencji nadawcy, co zwykle nie jest trudne 
 

THE END :-)