background image

Stanisław Just

Konspekcik

23 maj, 2006

“ C

“ C

O M P U T I N G

O M P U T I N G

 

 

M A C H I N E R Y

M A C H I N E R Y

 

 

A N D

A N D

 

 

I N T E L L I G E N C E

I N T E L L I G E N C E

A. M. Turing (1950). Computing Machinery and Intelligence. Mind 49: 433-460.

 

     Główne pytanie             

Czy maszyny mogą myśleć?

     Zarys problematyki            

Posługując się powszechnymi definicjami pojęć “maszyna” i “myśleć” to główne pytanie jest 

absurdalne. Inaczej problem wygląda w “grze imitacjnej”. 

Grają w niej: mężczyzna, kobieta i przesłuchujący, który może być obojga płci. Zadaniem 

przesłuchującego jest odgadnięcie, która z osób (jemu przedstawiona jako X i Y) jest mężczyzną, a która 
kobietą. Osoba przesłuchująca może pytać innych graczy, ale ich nie widzi ani nie słyszy. Odpowiedzi są 
na kartkach.  Jedna osoba z przesłuchiwanych ma ułatwić zadanie przesłuchującemu, a druga utrudnić. 

Co będzie jeśli miejsce np. kobiety zajmie maszyna? Czy przesłuchujący będzie miał taką samą 

skuteczność odgadywania jak w sytuacji, gdy w grze brali udział tylko ludzie? Te pytania zastąpią 
pierwotne: “Czy maszyny myślą?”.

     Krytyka nowego problemu           

Wiadomym jest, że człowiek nie jest w stanie skutecznie imitować maszyny, ale czy maszyna jest 

w stanie skutecznie uchodzić za człowieka. Ułatwieniem dla maszyny są warunki zadania, gdyż 
wykluczają one wszelkie możliwości rozpoznania sensorycznego. Z kolei takie wskaźniki jak szybkość 
liczenia, czy umiejętność gry w szachy można ustawić na komputerze w taki sposób by właściwie 
imitował możliwości człowieka. Innym przykładem było pisanie poezji. Jednakże poezji nie pisze nie 
tylko komputer, ale i wielu ludzi... Wobec czego, wstępne obiekcje są stosunkowo łatwo odrzucane. 

      Maszyna, która podejmuje wyzwanie               

Komputer cyfrowy, jako maszyna dyskretnego stanu, czyli taka, która porusza się przeskakując z jednego 

stanu na inny. Nie ma takich maszyn, bo wszelkie operacje są wykonywane szeregowo. Taki komputer składa się z: 
(i) magazynu, (ii) jednostki wykonawczej, (iii) kontroli. W magazynie przechowywane są wszystkie możliwe stany 
maszyny. Rozpatrujemy komputer cyfrowy, który ma odpowiednią bazę danych i odpowiedni program.

     Przeciwne perspektywy wobec głównego pytania            

I ) Obiekcja teoretyczna

Myślenie jest funkcją ludzkiej, nieśmiertelnej duszy. Bóg nie dał duszy maszynom lub zwierzętom, więc 

one nie myślą. 

ALE: Powyższe poglądy bynajmniej nie są przekonujące. Są raczej kwestią wiary. Nie mają one postaci 

empirycznych dowodów.

II ) Obiekcja “głowa w piasek”

Konsekwencja myślących maszyn byłaby zbyt przeraźliwa.Wolimy myśleć, że człowiek jest czymś 

wyższym, zawsze. Wizja myślących maszyn nie jest nam na rękę. Mamy monopol na myślenie i nie chcemy go 
stracić. 

ALE: Argument jest szczerym wyrazem zrozumiałych obaw. Jednakże w dalszym ciągu nie są to 

wiarygodne i odpowiednie argumenty...

III ) Obiekcja matematyczna

Są dowody matematyczne na ograniczoność mocy komputerów dyskretnego stanu. Maszyna albo mówi 

bezbłędnie, albo nie podaje wyniku. Na pytania otwarte komputer mógłby odpowiadać tylko w sposób, jaki został 

background image

Stanisław Just

Konspekcik

23 maj, 2006

zaprogramowany by na nie odpowiadać...czyli bardzo ograniczony.

ALE: Nie ma najmniejszych dowodów na to by mózg ludzki różnił się w tym względzie (ograniczonej 

pojemności) od magazynu pamięci maszyny/komputera cyfrowego.

IV ) Argument świadomościowy

Żadna maszyna nie jest świadoma, nie potrafi stworzyć niczego oryginalnego, a także jest zupełnie 

pozbawiona emocjonalności. 

ALE: Badając emocjonalność czy świadomość ludzi również nigdy nie mamy pewności o tym, że dany 

człowiek doznaje jakiś emocji lub jest czegoś świadomy...

V ) Argumenty mnogości niemożności

Można zlecić komputerowi by robił to a to, ale nie żeby się zachowywał w określony sposób. Nie można 

zaprogramować komputera by był miły, miał poczucie humoru, oddzielał dobro od zła, czasami popełniał błędy, 
zakochiwał się, lubił truskawki z kremem. Komputer też nie może sie uczyć, np. na własnych błędach.

ALE: Różnorodność zachowania i odpowiedzi jest jedynie kwestią ilości stanów zaprogramowanych w 

magazynie pamięciowym (o określonej pojemności) komputera.

VI ) Obiekcja pani Lovelas

Maszyny nigdy nas nie zaskoczą, ponieważ potrafią robić tylko to, co my wiemy jak im rozkazać.
ALE: Praktyka pokazuje, że maszyny często zaskakują ludzi, czasem nawet swoich własnych twórców!

VII ) Argument ciągłości systemu nerwowego

Maszyny dyskretnego stanu nie potrafią naśladować mimiki człowieka wyposażonego w system nerwowy. 
ALE: Mimika i naśladowanie organizmu wyposażonego w system nerwowy w tej grze nie jest istotne!

VIII ) Argument nieformalności zachowania

Niemożliwe jest stworzenie schematów zachowania z góry zdefiniowanych do wszystkich rodzajów 

możliwych zdarzeń w życiu. Człowiek tego nie jest w stanie wytworzyć i maszyna też nie. Człowiek reguluje 
swoje zachowania przez podporzadkowanie się jakimś nadrzędnym prawom, które przyjął wcześniej. 

ALE: Podobnie przecież działać może komputer! Napotykając jakąś nieznaną i nieprzewidzianą sytuację o 

pewnych cechach stosuje wobec niej takie zachowanie, jakie ma zaprogramowane, żeby stosować do sytuacji o 
danej cesze. Wobec czego, zaprogramowanie takich ogólnych praw w maszynie dyskretnego stanu powinno być 
możliwe. 

IX ) Argument nadzwyczajnej percepcji

Psychokineza, telepatia, wizjonerstwo etc. Wiele z tego typu zjawisk jest bardzo dobrze 

udokumentowanych, więc nie można ich pominąć. Uwzględnienie takich niezwykłych zjawisk w naszej grze może 
zaburzyć jej wyniki. Przesłuchujący może zadać pytanie np. O figurę karty, którą właśnie trzyma w ręku. 
Komputer będzie zgadywał, a osoba poprzez telepatię zgadnie poprawnie częściej.

ALE: Jest to poniekąd rozpoznawanie sensoryczne (tzw. Szósty zmysł), wobec czego jest niezgodne z 

regułami. Pomieszczenia powinny więc być nie tylko dźwiękoszczelne, ale i “telepatoszczelne”.

     Podsumowanie             

Najwidoczniej problem nie jest tak prosty jakby się z początku mogło zdawać. 
Ostatecznie artykuł zakończony jest wywodem nt. uczącej się maszyny. Założmy, że maszyna analizując 

rezultat swojej działalności jest w stanie wyciągnąć z niego naukę przydatną w przyszłości do efektywniejszego 
wykonywania podobnych problemów. Wynikiem tego założenia jest wniosek, że maszyna jest w stanie uczyć się 
na własnych błędach.

Autor proponuje więc by owa maszyna przybrała postać dziecka-maszyny, któremu zaimplementowano 

funkcję uczenia się i poddano edukacji oraz wychowaniu jak zwykłe, ludzkie dziecko. Czy po przejściu tych 
procesów dziecko-maszyna, już jako “dorosła-maszyna”, która nauczyła się wszystkiego tego, czego uczy się 
człowiek, może myśleć? Czy zostanie wtedy uznana za inteligentną? Dochodzimy z powrotem do pytania 
wyjściowego: Czy maszyna może myśleć..?