background image

P

AUL

 D

AVIES

P

LAN

 S

TWÓRCY

N

AUKOWE

 

PODSTAWY

 

RACJONALNEJ

 

WIZJI

 

ŚWIATA

( P

RZEKŁAD

 M

AREK

 K

ROŚNIAK

 )

background image

Rozdział pierwszy

ROZUM A PRZEKONANIA

Ludzie żywią najróżniejszego rodzaju przekonania i na różnych podstawach je opierają, 

począwszy   od   logicznego   dowodu   do   ślepej   wiary.   Jedne   przekonania   mają   swe   źródło   w 

osobistym  doświadczeniu,  inne nabywane  są w procesie  kształcenia,  a jeszcze  inne  wpajane 

poprzez indoktrynacje. Nie ulega wątpliwości, że istnieją przekonania o charakterze wrodzonym, 

ukształtowane w wyniku ewolucji. Niektóre z przekonań uważamy za możliwe do uzasadnienia, 

inne zaś żywimy, gdyż „tak czujemy”.

Jest   oczywiste,   że   wiele   naszych   przekonań   jest   fałszywych,   już   to   dlatego,   iż   są 

sprzeczne  wewnętrznie,  już  to  dlatego,  że   nie  zgadzają   się  z  innymi  przekonaniami  czy  też 

faktami. Pierwszą systematyczną  próbę znalezienia uniwersalnej podstawy przekonań podjęto 

dwa i pół tysiąca lat temu w starożytnej Grecji. Greccy filozofowie dążyli do sformalizowania 

ludzkiego myślenia za pomocą niepodważalnych reguł wnioskowania dedukcyjnego. Sądzili oni, 

że   poprzez   odwołanie   się   do   powszechnie   przyjętych   procedur   racjonalności   pozbędą   się 

niejasności, nieporozumień i sporów, towarzyszących rozwiązywaniu wszelkich ludzkich spraw. 

Ich ostatecznym celem było ustalenie zbioru założeń, zwanych aksjomatami, które, akceptowane 

przez każdego racjonalnego człowieka, umożliwiłyby rozwiązanie wszelkich kwestii spornych.

Trzeba przyznać, że celu tego nigdy nie osiągnięto, pomijając kwestię, czy to było w 

ogóle   możliwe.   We   współczesnym   świecie   zróżnicowanie   przekonań   jest   większe   niż 

kiedykolwiek, występuje wiele przekonań ekscentrycznych, niekiedy wręcz niebezpiecznych, a 

odwoływanie się do argumentów racjonalnych uważane jest częstokroć przez zwykłych ludzi za 

bezużyteczną sofistykę. Jedynie w nauce, zwłaszcza w matematyce (a także, oczywiście, w samej 

filozofii),   urzeczywistniane   są   ideały   greckich   filozofów.   Natomiast   przy   rozważaniu 

zasadniczych  kwestii egzystencjalnych,  takich jak pochodzenie i sens Wszechświata,  miejsce 

człowieka w świecie czy też naturalny porządek wszechrzeczy, istnieje silna pokusa popad-niecia 

w irracjonalizm,  od której nie są wolni nawet naukowcy.  Jednakże od dawna podejmowano 

poważne próby zmierzenia się z tymi problemami poprzez racjonalną, obiektywną analizę. Ale 

jak   daleko   zajdziemy   drogą   rozumu?   Czy   naprawdę   możemy   mieć   nadzieję,   że   ostateczne 

zagadki bytu zostaną rozwiązane poprzez racjonalne rozumowanie naukowe, czy też zawsze w 

background image

pewnym  momencie  natkniemy  się na nieprzeniknioną  tajemnicę?  I czym  w ogóle  jest  sama 

racjonalność?

background image

Cud nauki

Piękno,   majestat   i   wyrafinowanie   fizycznego   świata   wysławiano   od   wieków   we 

wszystkich   kulturach.   Ale   dopiero   w   nowożytnej,   opartej   na   nauce,   kulturze   podjęto 

systematyczną próbę badania tego świata i miejsca, jakie w nim zajmujemy. Sukcesy metody 

naukowej   w   dziedzinie   wyjaśniania   tajemnic   przyrody   okazały   się   tak   oszałamiające,   że 

niejednokrotnie przesłaniają to, co jest największym cudem związanym z nauką: fakt, że nauka 

jest w ogóle możliwa. Sami uczeni przyjmują zazwyczaj za pewnik, że żyjemy w racjonalnym, 

uporządkowanym świecie poddanym precyzyjnym prawom, które mogą być poznane ludzkim 

rozumem. Jednakże, dlaczego tak właśnie jest, pozostaje zadziwiającą zagadką. Jak to się dzieje, 

że   człowiek   posiada   zdolność   odkrywania   i   rozumienia   zasad,   na   których   opiera   się 

Wszechświat?

Ostatnio   problemem   tym   zajmuje   się   coraz   więcej   uczonych   i   filozofów.   Czy   nasze 

sukcesy   w   poznawaniu   świata   za   pomocą   matematyki   i   nauk   przyrodniczych   są   wyłącznie 

szczęśliwym zbiegiem okoliczności, czy też organizmy biologiczne wyłonione z kosmicznego 

porządku z konieczności posiadają zdolność odzwierciedlania tego porządku w swoich procesach 

poznawczych? Czy spektakularne postępy nauki są jedynie incydentalnym faktem historycznym, 

czy   też   świadczą   o   zachodzeniu   głębokich,   istotnych   współzależności   pomiędzy   ludzkim 

umysłem a fundamentalnym porządkiem przyrody, która go ukształtowała?

Czterysta lat temu nauki przyrodnicze weszły w konflikt z religią, ponieważ wydawały się 

zagrażać uprzywilejowanej pozycji Człowieka w świecie stworzonym przez Boga. Ten myślowy 

przewrót,   zapoczątkowany   przez   Kopernika   i   dokończony   przez   Darwina,   doprowadził   do 

marginalizacji, czy też wręcz trywializacji, Człowieka. Ludzie przestali być celem stworzenia, 

przypisano   im   przypadkową   i   pozornie   bezsensowną   rolę   w   bezosobowym   kosmicznym 

dramacie; byli kimś w rodzaju nie przewidzianych w scenariuszu statystów, którzy zabłąkali się 

na olbrzymim planie filmowym.

Ta egzystencjalistyczna koncepcja, głosząca, że życie człowieka ma tylko taki sens, jaki 

on sam mu nada, stała się przewodnim motywem nauki. To właśnie z tego powodu zwykli ludzie 

widzą w nauce zagrożenie i deprecjację swej godności, uważając, że wyobcowuje ich ona ze 

świata.

Wizja   nauki,   jaką   przedstawię   w   następnych   rozdziałach,   jest   całkowicie   odmienna. 

background image

Wynika  z niej, że człowiek nie jest przypadkowym  wytworem  ślepych  sił, jako że istnienie 

organizmów   obdarzonych   świadomością   jest   fundamentalną   właściwością   Wszechświata. 

Jesteśmy głęboko i, jak wierzę, celowo zapisani w prawach przyrody. Nie uważam również, by 

nauka   w   jakikolwiek   sposób   prowadziła   do   alienacji.   Jest   ona   szlachetnym   i   ubogacającym 

człowieka poszukiwaniem sensu świata w obiektywny, metodyczny sposób. Nie zaprzecza ona, 

że   świat   może   mieć   sens   zewnętrzny   wobec   swego   istnienia.   Wręcz   przeciwnie   -   jak 

podkreślałem, fakt, że nauka jest w ogóle możliwa i odznacza się taką skutecznością, wskazuje 

na pewne głębokie, istotne cechy zorganizowania  kosmosu. Wszelkie  próby poznania  natury 

rzeczywistości   i   miejsca   człowieka   we   Wszechświecie   muszą   być   oparte   na   solidnych 

podstawach   naukowych.   Naturalnie,   nauka   nie   jest   jedyną   dziedziną   aktywności   umysłowej 

człowieka, nawet w tej naszej, tak zwanej naukowej epoce bujnie rozkwita religia; jednakże, jak 

zauważył kiedyś Einstein, religia bez nauki jest ułomna.

Poszukiwania   naukowe   są   podróżą   w   nieznane.   Każdy   etap   przynosi   nowe, 

nieoczekiwane  odkrycia  i niezwykłe,  niekiedy trudne do zrozumienia,  koncepcje, stanowiące 

wyzwanie   dla   ludzkiego   umysłu.   Niemniej   wszędzie   odnajdujemy   znajome   motywy 

racjonalności i porządku. Przekonamy się, że ten kosmiczny porządek wyznaczany jest przez 

ścisłe   prawa   matematyczne,   które   są   ze   sobą   wzajemnie   powiązane,   tworząc   misterną, 

harmonijną całość. Prawa te odznaczają się prostotą i elegancją, niejednokrotnie narzucają się 

one uczonym wyłącznie na mocy swego wewnętrznego piękna. Jednakże te właśnie proste prawa 

pozwalają   na   samoorganizowanie   się   materii   i   energii   w   ogromną   różnorodność   złożonych 

struktur,   w   tym   również   w   takie,   które,   obdarzone   świadomością,   zdolne   są   do   refleksji 

poznawczej nad tym samym kosmicznym porządkiem, który je zrodził.

Jednym z najbardziej ambitnych celów tego typu refleksji jest lożliwość sformułowania 

„Teorii Wszystkiego” - dostarczającej upełnego opisu świata w postaci zamkniętego systemu 

prawd agicznych. Dążenie do stworzenia teorii uniwersalnej stało się dla izyków czymś na kształt 

poszukiwania świętego graala. Sama idea akiej teorii jest bez wątpienia bardzo pociągająca. W 

końcu, jeżeli Vszechświat stanowi przejaw racjonalnego porządku, to powinniśmy być w stanie 

wywieść jego naturę na mocy „czystego rozumu”, iez potrzeby odwoływania się do obserwacji 

czy   też   eksperymentów.   Większość   uczonych   odrzuca   tego   typu   podejście,   głosząc,   że 

dobywanie wiedzy na drodze empirycznej jest jedyną metodą, na .tórej można polegać. Jednak, 

jak zobaczymy,  wymóg  racjonalności i poddania prawom logiki co najmniej  nakłada  pewne 

background image

ograniczenia na typ świata dostępnego naszemu poznaniu. Z drugiej strony, same struktury logiki 

zawierają immanentne, paradoksalne ograniczenia, wskutek których nigdy nie uda nam się pojąć 

pełni istnienia rozumując wyłącznie poprzez dedukcję.

W   dziejach   nauki   występowało   wiele   modeli   mających   obrazować   podstawowy, 

racjonalny porządek rzeczywistości: świat jako przejaw idealnych form geometrycznych, jako 

żywy organizm, jako ogromny mechanizm zegarowy, czy też, ostatnio, gigantyczny komputer. W 

każdym z tych wyobrażeń uchwycony został jakiś zasadniczy aspekt rzeczywistości, lecz każde z 

nich samo w sobie jest dalece niepełne. Omówimy niektóre najnowsze wersje tego typu metafor i 

konstrukcje matematyczne, jakie używane są do ich wyrażenia. To doprowadzi nas do pytania, 

czym jest matematyka i dlaczego jest ona tak skutecznym narzędziem opisu praw rządzących 

światem,  a  także  skąd  się   biorą  same   te  prawa.  Rozważane  kwestie   będą  na   ogół  łatwe   do 

przedstawienia, lecz niektóre mają bardziej techniczny, abstrakcyjny charakter. Zapraszam Cię, 

Czytelniku, abyś wraz ze nną wyruszył w tę naukową wyprawę w nieznane w poszukiwaniu 

ostatecznej   podstawy   rzeczywistości.   Chociaż   droga   od   czasu   do   czasu   jest   wyboista,   a   cel 

pozostaje spowity mgłą tajemnicy, mam nadzieję, że podróż ta sprawi Ci wiele radości.

background image

Ludzkie myślenie a zdrowy rozsądek

Często mówi się, że tym, co odróżnia człowieka od innych zwierząt, jest nasza zdolność 

myślenia.   Zwierzęta   wydają   się   w   mniejszym   lub   większym   stopniu   posiadać   właściwość 

uświadamiania sobie otaczającego je świata i reagowania na niego, lecz u człowieka mamy do 

czynienia z czymś więcej niż tylko ze świadomością. Posiadamy bowiem zdolność pojmowania 

świata   i   miejsca,   jakie   w   nim   zajmujemy.   Jesteśmy   w   stanie   przewidywać   wydarzenia   i 

wykorzystywać naturalne procesy do swoich własnych celów, a chociaż sami stanowimy część 

świata, to odróżniamy siebie od otaczającej nas rzeczywistości.

W kulturach pierwotnych poznanie świata przez ludzi ograniczało się do zjawisk życia 

codziennego, takich jak zmiany pór roku czy też strzelanie z procy lub łuku. Miało ono charakter 

ściśle pragmatyczny,  bez żadnej podbudowy teoretycznej, nie licząc sfery magii. Obecnie, w 

wieku nauki, nasza wiedza uległa znacznemu rozszerzeniu, tak że trzeba ją było podzielić na 

odrębne dziedziny: astronomię, fizykę, chemię, geologię, psychologię i tak dalej. Ten gwałtowny 

postęp   dokonał   się   prawie   wyłącznie   dzięki   zastosowaniu   „metody   naukowej”,   opartej   na 

eksperymentach, obserwacjach, dedukcji oraz stawianiu i falsyfikacji hipotez. Nie będziemy tutaj 

wchodzić   w   szczegóły,   istotne   jest,   że   nauka   wyznacza   rygorystyczne   standardy   procedur 

badawczych   i   dyskutowania   ich   wyników,   które   zdecydowanie   przedkładają   racjonalną 

argumentację ponad ślepą wiarę.

Pojęcie   racjonalnej   argumentacji   jest   samo   w   sobie   bardzo   intrygujące.   Poszukujemy 

„racjonalnych” argumentów, uznając za najbardziej satysfakcjonujące te, które odwołują się do 

„zdrowego   rozsądku”.   Jednakże   procesy   myślowe   człowieka   nie   pochodzą   bezpośrednio   od 

Boga, lecz biorą swój początek ze struktury ludzkiego mózgu i zadań, do jakich ukształtował się 

on   w   procesie   ewolucji.   Z   kolei   działanie   mózgu   opiera   się   na   prawach   fizyki   i   zależy   od 

otaczającego   nas   świata.   To,   co   określamy   mianem   zdrowego   rozsądku,   jest   wytworem 

schematów myślowych głęboko zakorzenionych w ludzkim umyśle, prawdopodobnie dlatego, że 

okazały   się   skuteczne   w   praktyce   życia   codziennego,   w   sytuacjach   takich   jak   unikanie 

spadających przedmiotów lub ucieczka przed drapieżnikami. Niektóre aspekty działania umysłu 

determinowane   są   przez   budowę   ludzkiego   mózgu,   inne   zaś   stanowią   „genetyczne 

oprogramowanie” odziedziczone po naszych dalekich przodkach.

Wielki filozof Immanuel Kant twierdził, iż nie wszystkie kategorie myślowe, jakimi się 

background image

posługujemy,  mają swe źródło w zmysłowym  doświadczeniu świata. Uważał on, że niektóre 

pojęcia mają charakter a priori, przez co rozumiał, iż jakkolwiek nie są prawdami koniecznymi w 

ścisłym logicznym sensie, to jednak,zadne myślenie nie byłoby bez nich możliwe: stanowią one 

„niezbędny   warunek   myślenia”.   Jako   przykład   Kant   podawał   nasze   intuicyjne   pojmowanie 

trójwymiarowości przestrzeni za pośrednictwem aksjomatów geometrii euklidesowej, zakładając, 

że ta wiedza jest człowiekowi wrodzona. Niestety, później okazało się, iż geometria euklidesowa 

jest faktycznie fałszywa! Obecnie uczeni i filozofowie zgodni są co do tego, że nawet najbardziej 

podstawowe aspekty ludzkiego myślenia  mają  swe ostateczne  źródło w obserwacjach świata 

fizycznego. Być może pojęcia, które zakorzeniły się w naszym umyśle do tego stopnia, że nie 

wyobrażamy   sobie,   aby   można   się   było   bez   nich   obejść   -   takie   jak   „zdrowy 

rozsądek”,racjonalność - zostały genetycznie zaprogramowane głęboko w ludzkim mózgu.

Interesujące mogłoby być rozważenie, czy jakieś hipotetyczne istoty inteligentne, których 

ewolucja   przebiegałaby   w   odmiennych   warunkach,   podzielałyby   nasze   kategorie   zdrowego 

rozsądku czy eż w ogóle schematy ludzkiego myślenia. Gdyby, jak w wizji niektórych autorów 

fantastyki naukowej, istniało życie na powierzchni gwiazdy neutronowej, można by postawić 

pytanie,   jak   takie   stoty   widziałyby   świat   i   w   jakich   kategoriach   go   przedstawiały.   Zupełnie 

możliwe,   że   ich   pojęcie   racjonalności   różniłoby   się   od   naszego   tak   dalece,   iż   żadne   z 

argumentów, które my uważamy za racjonalne, nie byłyby dla nich przekonujące.

Czy oznacza to, że do ludzkiego myślenia  należy podchodzić , podejrzliwością? Czy 

jesteśmy   krańcowo   szowinistyczni   lub   zaściankowi,   gdy   zakładamy,   iż   kategorie   myślowe 

gatunku  Homo  sapiens  możemy   z  powodzeniem  stosować  do  rozwiązywania  podstawowych 

kwestii   egzystencjalnych?   Niekoniecznie.   Nasz   umysł   działa   w   określony   sposób   właśnie 

dlatego, że jego procesy odzwierciedlają do pewnego stopnia naturę świata, w którym żyjemy. 

Naprawdę zaskakujące jest to, że ludzkie myślenie okazuje się tak skuteczne w poznawaniu tych 

obszarów rzeczywistości, które nie są dane bezpośrednio naszym zmysłom. Nie ma nic dziwnego 

w tym iż człowiek był w stanie sformułować prawa rządzące spadaniem ciał, gdyż jego mózg w 

swym rozwoju musiał zajmować się sposobami uniknięcia spadających przedmiotów. Ale czy w 

jakikolwiek   sposób   uprawnione   jest   oczekiwanie,   że   nasze   sposoby   rozumowania   okażą   się 

skuteczne na przykład w fizyce jądrowej czy też astrofizyce? Fakt, iż w samej rzeczy okazują się 

skuteczne i prowadzą do „nadspodziewanie” dobrych wyników, jest jedną z wielkich zagadek 

Wszechświata, którymi będę się zajmował w tej książce.

background image

Jednakże   w   tym   miejscu   pojawia   się   następny   problem.   Jeżeli   w   ludzkim   myśleniu 

odzwierciedla się w jakiś sposób struktura rzeczywistości, czy można twierdzić, że świat stanowi 

przejaw rozumu? Będziemy posługiwać się słowem „racjonalny” w sensie „zgodny z rozumem”, 

a więc moje pytanie można sformułować, czy, lub w jakim stopniu, świat jest racjonalny. Nauka 

zasadza się na założeniu, że świat jest racjonalny we wszystkich swoich aspektach, jakie mogą 

być   obserwowane   przez   człowieka.   Nie   można   jednak   wykluczyć,   iż   istnieją   jakieś   obszary 

rzeczywistości wykraczające poza zasięg ludzkiego poznania. Nie znaczy to, że musiałyby one 

być   irracjonalne   w   absolutnym   sensie.   Istoty   zamieszkujące   gwiazdy   neutronowe   (lub   też 

superkomputery)  mogłyby  być  w stanie poznawać rzeczy,  których  my,  wskutek specyficznej 

budowy naszego mózgu, poznać nie możemy. Musimy zatem brać pod uwagę możliwość, że 

istnieją rzeczy, których nie jesteśmy w stanie wyjaśnić, a nawet takie, których wyjaśnić nie da się 

w ogóle.

W   tej   książce   przyjmuję   optymistyczny   pogląd,   że   w   ogólnym   przypadku   możemy 

polegać na ludzkim rozumie jako narzędziu poznania. Pozostaje faktem, iż u ludzi występują 

przekonania, zwłaszcza typu religijnego, które można by określić mianem irracjonalnych. Ich 

irracjonalność nie oznacza, iż muszą być one fałszywe. Być może istnieją sposoby poznania (na 

przykład typu mistycznego lub poprzez objawienie), które pomijają lub wykraczają poza drogę 

poznania rozumowego. Jako uczony, staram się posługiwać rozumem, jak dalece jest to tylko 

możliwe.   Badając   granice   rozumu   i   racjonalności   niejednokrotnie   natkniemy   się   na   rzeczy 

tajemnicze i niezrozumiałe; z dużym prawdopodobieństwem możemy oczekiwać, że w pewnym 

momencie rozum przestanie wystarczać i będzie musiał ustąpić miejsca irracjonalnej wierze lub 

też szczeremu przyznaniu się do niewiedzy.

Jeżeli świat jest, przynajmniej w znacznym stopniu, racjonalny, jaka jest podstawa jego 

racjonalności?  Nie  może  nią   być  umysł  człowieka,   ponieważ   odzwierciedla  tylko  to,  co   już 

istnieje. Czy poszukując uzasadnienia powinniśmy odwoływać  się do koncepcji racjonalnego 

Stwórcy?   A   może   racjonalność   „rodzi   samą   siebie”   na   mocy   własnej   „logiczności”?   Inną 

możliwością jest, że świat „w wielkiej skali” jest irracjonalny, lecz my zamieszkujemy w oazie 

względnej   racjonalności,  ponieważ  jest to  jedyne   „miejsce”,  w  którym  mogą  bytować  istoty 

obdarzone świadomością i zdolnością myślenia. Aby spróbować odpowiedzieć na pytania tego 

typu, przyjrzyjmy się bliżej różnym typom rozumowania.

background image

Myślenie o myśleniu

Istnieją   dwa   użyteczne   typy   rozumowania   i   ważne   jest,   aby   potrafić   je   należycie 

rozróżnić. Pierwszy z nich nosi nazwę „dedukcji” i polega na zastosowaniu ścisłych praw logiki. 

Zgodnie z logiką klasyczną pewne zdania, takie jak „Pies jest psem” albo „Każda rzecz albo jest 

albo nie jest psem”, są zawsze prawdziwe, podczas gdy inne, jak „Pies nie jest psem”, są z 

konieczności   fałszywe.   Przy   rozumowaniu   dedukcyjnym   wychodzimy   od   zbioru   założeń, 

zwanych  „przesłankami”.  Są to zdania,  które  dla potrzeb  danego  rozumowania  uznajemy za 

bezdyskusyjnie prawdziwe. Jest oczywiste, że przesłanki nie mogą być ze sobą sprzeczne.

Powszechnie uważa się, że wnioski logicznego rozumowania dedukcyjnego nie zawierają 

nic ponad to, co było zawarte w przesłankach wyjściowych, tak więc za pomocą argumentu tego 

typu   nie   udowodnimy   nigdy   niczego   naprawdę   nowego.   Rozważmy   przykład   rozumowania 

dedukcyjnego, zwany „sylogizmem”:

1. Wszyscy kawalerowie są mężczyznami.

2. Aleksander jest kawalerem.

3. A zatem, Aleksander jest mężczyzną.

Zdanie 3 mówi nam tylko to, co było wyrażone w zdaniach l i 2 tak więc, zgodnie z tym 

poglądem, rozumowanie dedukcyjne stanowi jedynie sposób przekształcania faktów lub pojęć 

tak, aby nadać im bardziej dogodną lub interesującą formę.

Jednak gdy zastosujemy rozumowanie dedukcyjne do bardziej ikomplikowanych pojęć, 

możemy otrzymać wyniki nieoczekiwane zaskakujące, nawet jeżeli są one jedynie inną postacią 

przesłanek wyjściowych. Dobrym przykładem może być tu geometria, opierająca się na zbiorze 

założeń, zwanych aksjomatami, z których wyprowadza się inne twierdzenia składające się na 

całość teorii. W III wieku przed naszą erą grecki matematyk Euklides podał pięć aksjomatów, 

które  stały się  podstawą  geometrii  klasycznej,  wśród nich  takie:  „Istnieje  tylko  jedna prosta 

przechodząca  przez  dwa  dane punkty”.  Z tych  aksjomatów,  posługując się  dedukcją,  można 

otrzymać wszystkie twierdzenia geometryczne, których uczymy się w szkole. Jednym z nich jest 

twierdzenie   Pitagorasa,   którego,   jakkolwiek   nie   niesie   ono   w   sobie   więcej   informacji   niż 

aksjomaty   Euklidesa,   z   których   zostało   wyprowadzone,   nie   możemy   bynajmniej   uznać   za 

intuicyjnie oczywiste.

Nie   ulega   wątpliwości,   że   wartość  rozumowania   dedukcyjnego   jest   taka,   jak  wartość 

background image

przesłanek, na których się ono opiera.

W   dziewiętnastym   wieku   niektórzy   matematycy   postanowili   zbadać   konsekwencje 

opuszczenia   piątego   aksjomatu   Euklidesa,   głoszącego,   że   przez   dany   punkt   możemy 

przeprowadzić   dokładnie   jedną   prostą   równoległą   do   danej   prostej.   W   ten   sposób   powstała 

„geometria   nieeuklidesowa”,   która   znalazła   niezwykle   duże   zastosowanie   w   nauce;   została 

wykorzystana między innymi przez Alberta Einsteina w jego ogólnej teorii względności (teorii 

grawitacji). Jak wspomnieliśmy, geometria euklidesowa nie jest słuszna w odniesieniu do świata 

realnego,   w   którym,   najogólniej   mówiąc,   przestrzeń   jest   zakrzywiona   wskutek   istnienia 

grawitacji. Niemniej w szkole nadal uczy się geometrii euklidesowej, ponieważ w normalnych 

warunkach jest ona bardzo dobrym przybliżeniem. Jednakże wypływa stąd morał, że nie byłoby 

rozsądne uważanie jakichkolwiek aksjomatów za tak oczywiście słuszne, iż nie mogłoby być 

inaczej.

Powszechnie   przyjmuje   się,   że   dedukcja   logiczna   stanowi   najpewniejszy   typ 

rozumowania, jakkolwiek trzeba tu wspomnieć, że niekiedy podawane jest w wątpliwość nawet 

samo posługiwanie się logiką klasyczną. W tak zwanej logice kwantowej rezygnuje się z zasady, 

że coś nie może jednocześnie być i nie być czymś, motywując to tym, iż w mechanice kwantowej 

pojecie „bycia” jest bardziej złożone niż w życiu codziennym: kwantowe układy fizyczne mogą 

stanowić superpozycję przeciwstawnych stanów.

Inny powszechnie stosowany typ rozumowania nazywa się „indukcyjnym”. Tak jak w 

przypadku dedukcji, w indukcji wychodzi się od danego zbioru faktów lub założeń i dochodzi do 

określonych   wniosków,   lecz   dokonuje   się   tego   poprzez   uogólnienie,   a   nie   tworzenie   ciągu 

wynikających z siebie zdań. Przekonanie, że słońce jutro wzejdzie, jest przykładem rozumowania 

indukcyjnego   w  oparciu  o  będący częścią   naszego  doświadczenia   fakt,  iż  słońce  dotychczas 

regularnie   codziennie   wschodziło.   Kiedy   upuszczę   ciężki   przedmiot,   oczekuję,   że   będzie   on 

spadał, na podstawie moich  poprzednich  doświadczeń  z siłą  ciążenia.  Stosując rozumowanie 

indukcyjne,   uczeni   formułują   hipotezy   w   oparciu   o   ograniczoną   liczbę   obserwacji   lub 

eksperymentów. Do tego typu hipotez należą na przykład prawa fizyki. Prawo mówiące, że siły 

elektrostatyczne   są   odwrotnie   proporcjonalne   do   kwadratu   odległości,   było   wielokrotnie 

sprawdzane na różne sposoby i zawsze się potwierdzało. Nazywamy je prawem przyrody, gdyż, 

poprzez indukcję, przyjmujemy,  że tak będzie zawsze. Jednakże fakt, iż nikt do tej pory nie 

zaobserwował naruszenia tego prawa, nie oznacza, że jest ono z konieczności prawdziwe, tak jak 

background image

przy założeniu słuszności aksjomatów geometrii euklidesowej musi być prawdziwe twierdzenie 

Pitagorasa.   Niezależnie   od   tego,   ile   będzie   poszczególnych   przypadków   potwierdzających   to 

prawo,   nie   możemy   być   nigdy   absolutnie   pewni,   że   zachodzi   ono   bez   żadnych   wyjątków. 

Indukcja upoważnia nas tylko do wyciągnięcia wniosku, iż jest bardzo prawdopodobne, że przy 

każdej następnej próbie prawo to się potwierdzi.

Filozof David Hume przestrzegał przed rozumowaniem indukcyjnym. To, że słońce dotąd 

regularnie   wschodziło   lub   prawo   proporcjonalności   siły   elektrostatycznej   do   odwrotności 

kwadratu odległości zawsze się potwierdzało, nie gwarantuje, iż będzie się to powtarzało nadal w 

przyszłości. Przekonanie, że tak właśnie będzie, opiera się na założeniu, iż „procesy w przyrodzie 

przebiegają zawsze w ten sam, ustalony, sposób”. Ale jakie mamy podstawy, by przyjmować 

takie założenie? Nawet jeżeli faktycznie zawsze dotąd obserwowano, że jakiś stan rzeczy B (np. 

świt) następuje po stanie rzeczy A (np. zmierzchu), czyż można stąd wnosić, że oznacza to, iż B 

jest konieczną konsekwencją A? W jakim sensie moglibyśmy twierdzić, że B musi następować 

po A? Z pewnością jesteśmy sobie w stanie wyobrazić świat, w którym zachodzi A, lecz nie 

zachodzi   B:   między   A   i   B   nie   ma   koniecznego   logicznego   związku.   Czy   można   mówić   o 

konieczności w jakimś innym sensie, czymś w rodzaju konieczności naturalnej? Hume i jego 

zwolennicy stanowczo temu zaprzeczają.

Wygląda na to, że zmuszeni jesteśmy przyznać, iż wnioski, do których dochodzi się na 

drodze indukcji, nigdy nie są absolutnie pewne, tak jak wnioskowanie poprzez dedukcję, mimo 

że kategoria „zdrowego rozsądku” oparta jest na indukcji. To, że rozumowanie indukcyjne jest na 

ogół   skuteczne,   jest   (niezwykłą)   własnością   świata,   którą   można   by   określić   mianem 

„spolegliwości przyrody”. Wszyscy kierujemy się w życiu przekonaniami o świecie (takimi jak 

to, że nieuchronnie wzejdzie słońce), do których doszliśmy w sposób indukcyjny, uważając je za 

całkowicie racjonalne, mimo iż u ich podstaw nie leży logika formalna, lecz przygodna własność 

świata. Jak się przekonamy, nie ma żadnego logicznego uzasadnienia, aby rzeczy nie miały się 

przedstawiać inaczej. Moglibyśmy równie dobrze mieć do czynienia ze światem chaotycznym, w 

którym nie byłyby możliwe żadne uogólnienia typu indukcyjnego.

We współczesnej filozofii dużą rolę odegrały prace Karla Poppera, który utrzymywał, że 

w praktyce w nauce bardzo rzadko używa się rozumowania indukcyjnego w opisany sposób. Po 

dokonaniu   nowego   odkrycia   naukowcy   spoglądają   wstecz   starając   się   sformułować   hipotezy 

zgodne z tym odkryciem, a następnie wyprowadzają wnioski z tych hipotez, które z kolei mogą 

background image

być   sprawdzone   na   drodze   eksperymentalnej.   Jeśli   któreś   z   tych   przewidywań   okaże   się 

fałszywe, teorię należy zmodyfikować lub odrzucić. Tak więc główny nacisk zostaje położony na 

falsyfikację, a nie weryfikację teorii. Dobra teoria to taka, która jest w znacznym stopniu podatna 

na falsyfikację, a zatem może być sprawdzona na różne konkretne szczegółowe sposoby. Jeśli 

testy te wypadną pozytywnie, nasze zaufanie do teorii wzrasta. Teoria zbyt niejasna lub ogólna, 

albo też prowadząca  jedynie  do przewidywań, których  sprawdzić nie jesteśmy w stanie, jest 

niewiele warta.

W praktyce zatem ludzka aktywność intelektualna nie polega wyłącznie na rozumowaniu 

dedukcyjnym   i  indukcyjnym.   U  źródeł  wielkich   odkryć  naukowych  leżą   zazwyczaj   genialne 

intuicje   i   swobodna   gra   wyobraźni.   W   takich   przypadkach   kluczowy   fakt   czy   też   hipoteza 

pojawia się w umyśle badacza w gotowej postaci i dopiero potem znajduje on jego uzasadnienie 

w   postaci   logicznego   łańcucha   rozumowania.   Inspiracja   tego   typu   jest   procesem   bardzo 

tajemniczym, który rodzi wiele pytań. Czy idee posiadają jakiś rodzaj niezależnego istnienia i są 

tylko „odkrywane” w pewnym momencie przez ludzki umysł? A może natchnienie to nic innego 

jak   normalne   rozumowanie,   lecz   dokonujące   się   gdzieś   na   poziomie   podświadomości,   a 

uświadamiamy sobie dopiero jego gotowy wynik? Jeśli tak, to w jaki sposób wykształciła się u 

człowieka umiejętność tego typu? Jaką biologiczną przewagę zapewnia gatunkowi ludzkiemu 

kreatywność matematyczna i artystyczna?

background image

Racjonalność świata

Teza o racjonalności świata związana jest z faktem, że jest on uporządkowany. Na ogół 

zdarzenia   nie   następują   bezładnie,   lecz   są   ze   sobą   powiązane.   Słońce   wschodzi   planowo, 

ponieważ Ziemia obraca się w regularny sposób; spadek ciężkiego przedmiotu poprzedzony jest 

jego upuszczeniem z wysokości, i tak dalej. Właśnie to wzajemne powiązanie zdarzeń prowadzi 

do pojęcia przyczyny i skutku. Okno zostaje wybite, ponieważ uderzył w nie kamień. Dąb rośnie, 

ponieważ   została   zasadzona   do   ziemi   żołądź.   Przyzwyczajeni   do   niezmiennego   następstwa 

zdarzeń   powiązanych   ze   sobą   przyczynowo,   skłonni   jesteśmy   uważać   za   przyczynę   same 

przedmioty   materialne:   to   kamień   wybija   okno.   Jednak   oznaczałoby   to   przypisywanie 

przedmiotom   aktywnej   roli,   która   im   się   nie   należy.   W   rzeczywistości   możemy   jedynie 

stwierdzić, że istnieje pewna korelacja między, na przykład, kamieniami lecącymi w stronę okna 

a zbitą szybą, a zatem zdarzenia tworzące taki ciąg nie są niezależne. Gdybyśmy sporządzili 

zapis wszystkich zdarzeń w jakimś obszarze przestrzeni w określonym czasie, zauważylibyśmy, 

że można je ze sobą połączyć w krzyżujące się struktury, „ciągi przyczynowo-skutkowe”. To w 

występowaniu tego typu struktur przejawia się racjonalny porządek świata; bez nich mielibyśmy 

do czynienia jedynie z chaosem.

Z przyczynowością ściśle wiąże się pojęcie determinizmu. W jego współczesnej postaci 

polega   ono   na   założeniu,   że   wszelkie   zdarzenia   są   w   pełni   zdeterminowane   przez   inne, 

wcześniejsze zdarzenia. Determinizm implikuje, że stan świata w danym momencie pozwala na 

wyznaczenie stanu świata w każdej późniejszej chwili. A ponieważ ten późniejszy stan wyznacza 

z kolei następne stany, można wyciągnąć wniosek, że wszystko, co kiedykolwiek wydarzy się we 

Wszechświecie   w   przyszłości,   jest   całkowicie   określone   przez   jego   stan   obecny.   Gdy,   w 

siedemnastym   wieku,   Isaac   Newton   sformułował   prawa   swojej   mechaniki,   zawarł   w   nich 

automatycznie determinizm. Na przykład, jeżeli uznamy Układ Słoneczny za układ izolowany, 

znajomość   położenia   i   prędkości   planet   w   określonej   chwili   pozwala   na   jednoznaczne 

wyznaczenie  (za pomocą  praw  Newtona) ich pozycji  i prędkości w każdej  następnej  chwili. 

Ponadto, ponieważ prawa Newtona nie wyróżniają kierunku czasu, zachodzi również możliwość 

odwrotna: znajomość stanu obecnego wystarcza na jednoznaczne ustalenie stanu w dowolnym 

momencie w przeszłości. W ten sposób jesteśmy na przykład w stanie przewidywać zaćmienia 

Słońca i Księżyca, które nastąpią w przyszłości, jak również obliczyć momenty ich wystąpienia 

background image

w przeszłości.

Jeżeli   świat   ma   charakter   ściśle   deterministyczny,   wszystkie   zdarzenia   tworzą   zespół 

powiązanych ze sobą ciągów przyczynowo-skutkowych. Przeszłość i przyszłość zawarte są w 

teraźniejszości,   w   tym   sensie,   że   pełna   informacja   potrzebna   do   odtworzenia   przeszłych   i 

przyszłych   stanów   świata   kryje   się   w   jego   stanie   obecnym,   podobnie   pełna   informacja   o 

twierdzeniu Pitagorasa kryje się w aksjomatach geometrii euklidesowej. Cały kosmos staje się 

czymś   na   kształt   gigantycznego   mechanizmu   czy  też   zegara,   posłusznie   podążającego   drogą 

zmian zaplanowaną od samego  początku czasu. Ilya  Prigogine wyraził  to w sposób bardziej 

poetyczny:   Bóg   zostaje   sprowadzony   do   roli   bibliotekarza   odwracającego   kolejne   stronice 

napisanej już księgi historii kosmicznej.

Przeciwieństwem determinizmu jest indeterminizm, czyli przypadkowość. Mówimy, że 

jakieś  zdarzenie  było  „czysto  przypadkowe”,  gdy nie  było  ono w  żaden  zauważalny sposób 

zdeterminowane przez coś innego. Typowym przykładem są tu rzuty kostką do gry lub monetą. 

Jednakże, czy mamy w tym przypadku do czynienia z rzeczywistym indeterminizmetn czy też 

czynniki i siły determinujące wynik rzutu są przed nami ukryte, tak że zachowanie monety lub 

kostki po prostu wydaje się nam przypadkowe?

Jeszcze   w   ubiegłym   stuleciu   większość   uczonych   odpowiedziałaby   na   to   pytanie 

twierdząco.   Zakładano,   że   na   najbardziej   podstawowym   poziomie   świat   jest   ściśle 

deterministyczny,  a to, że niektóre wydarzenia wydają się nam przypadkowe, jest wyłącznie 

wynikiem tego, że nie posiadamy pełnej informacji o danym układzie. Gdybyśmy znali ruchy 

poszczególnych atomów - rozumowano - bylibyśmy w stanie przewidzieć nawet rezultat rzutu 

monetą.   Jego   praktyczna   nieprzewidywalność   bierze   się   z   ograniczoności   naszej   wiedzy   o 

świecie. Zachowanie przypadkowe miałoby być cechą układów wysoce niestabilnych, a zatem 

zdanych na łaskę nieznacznych fluktuacji sił ze swego otoczenia.

Pogląd ten został powszechnie odrzucony w drugiej połowie lat dwudziestych naszego 

stulecia wraz z odkryciem mechaniki kwantowej, dostarczającej opisu zjawisk zachodzących w 

skali atomu,  w której mamy do czynienia  z indeterminizmem  na poziomie fundamentalnym. 

Jeden z przejawów tego indeterminizmu znany jest jako zasada nieoznaczoności Heisenberga, 

nazwana na cześć niemieckiego fizyka, Wernera Heisenberga, jednego z odkrywców mechaniki 

kwantowej.   Najogólniej   mówiąc,   stwierdza   ona,   że   wszystkie   mierzalne   wielkości   podlegają 

nieprzewidywalnym fluktuacjom, a zatem niemożliwy jest ich pomiar z absolutną dokładnością. 

background image

Ta   fundamentalna   niedokładność   da   się   ująć   w   sposób   ilościowy,   jeżeli   pogrupujemy 

obserwowalne własności cząstki w pary: i tak na przykład parę taką tworzą położenie i pęd, jak 

również energia i czas. Zasada nieoznaczoności stwierdza, że jakiekolwiek próby zwiększenia 

dokładności pomiaru jednej z wielkości z takiej pary zmniejszają dokładność, z jaką jesteśmy w 

stanie znać wartość drugiej. A zatem dokładniejszy pomiar położenia cząstki elementarnej, na 

przykład elektronu, prowadzi do zwiększenia nieokreśloności jego pędu, i odwrotnie. Ponieważ 

przewidywanie przyszłych stanów jakiegoś układu wymaga znajomości dokładnych położeń i 

pędów jego cząstek składowych, zasada nieoznaczoności Heisenberga położyła ostateczny kres 

koncepcji, że przyszłość wyznaczona jest dokładnie przez teraźniejszość. Oczywiście, zakłada się 

przy   tym,   że   nieoznaczoność   kwantowa   jest   rzeczywistą   immanentną   cechą   przyrody,   a   nie 

wynikiem działania ukrytych czynników deterministycznych. Wiele kluczowych eksperymentów, 

jakie   przeprowadzono   dla   sprawdzenia   tej   tezy   w   ostatnich   latach,   potwierdziło,   że 

nieoznaczoność   należy   do   istoty   układów   kwantowych.   Wszechświat   na   swym   najbardziej 

fundamentalnym poziomie ma charakter indeterministyczny.

Czy miałoby to oznaczać, że Wszechświat jest jednak irracjonalny? W żadnym wypadku. 

Zachodzi   zasadnicza   różnica   między   rolą,   jaką   odgrywa   prawdopodobieństwo   w   mechanice 

kwantowej, a niczym nie ograniczonym chaosem pozbawionego praw świata. Chociaż, ogólnie 

rzecz biorąc, przyszłe stany układu kwantowego nie mogą być znane z pewnością, względne 

prawdopodobieństwa   różnych   możliwych   stanów   są   wyznaczone   w   sposób   ścisły.   Zatem 

możemy podać, jaka jest szansa, że atom będzie się znajdował w stanie wzbudzonym lub nie, 

nawet jeżeli niemożliwe jest przewidzenie wyniku w konkretnym przypadku. Te statystyczne 

prawidłowości   powodują,   że   na   poziomie   makroskopowym,   gdzie   efektów   kwantowych   w 

normalnych   warunkach   nie   obserwuje   się,   przyroda   wydaje   się   podlegać   prawom 

deterministycznym.

Zadaniem fizyka jest poszukiwanie regularności w przyrodzie i ujmowanie ich w proste 

koncepcje matematyczne. Pytanie, dlaczego w ogóle występują regularności i dlaczego dają się 

one prosto wyrażać za pomocą matematyki, wykracza poza zakres fizyki i należy do metafizyki.

background image

Metafizyka: komu jest ona potrzebna?

Termin   „metafizyka”   w   filozofii   greckiej   oznaczał   pierwotnie   „to,   co   następuje   po 

fizyce”. Wiązało się to z faktem, iż pisma Arystotelesa dotyczące metafizyki znajdowały się, nie 

opatrzone tytułem, po jego traktacie o fizyce. Jednak wkrótce terminem tym zaczęto oznaczać 

wszelką   tematykę   wykraczającą   poza   fizykę   (dzisiaj   powiedzielibyśmy:   poza   nauki 

przyrodnicze), a mimo to mającą znaczenie dla badań naukowych. Tak więc metafizyka oznacza 

tematykę   dotyczącą   fizyki   (czy   też   ogólnie   nauki)   w   odróżnieniu   od   tematyki   samej   nauki. 

Tradycyjne kwestie metafizyczne obejmują pochodzenie, naturę i sens Wszechświata, problem 

relacji   świata   przedstawień,   dostępnego   naszym   zmysłom,   do   ukrytego   porządku   świata 

„prawdziwego”, związek pomiędzy umysłem a materią, oraz problem wolnej woli. Kwestie te są 

w oczywisty sposób istotne dla nauki, lecz podobnie jak w przypadku pytań o sens życia nie 

można na nie udzielić odpowiedzi odwołując się wyłącznie do badań empirycznych.

U progu dziewiętnastego wieku cały gmach metafizyki uległ zachwianiu po krytycznych 

analizach Davida Hume'a  i Immanuela  Kanta. Filozofowie ci podali w wątpliwość nie tylko 

konkretne  systemy metafizyczne  jako takie,  lecz  zakwestionowali  zarazem  samą  sensowność 

metafizyki. Hume dowodził, że sens można przypisać jedynie ideom, które biorą swój początek 

bezpośrednio z obserwacji świata lub z systemów dedukcyjnych, jak matematyka. Pojęć takich 

jak   „rzeczywistość”,   „umysł”,   czy   też   „substancja”,   które   miałyby   wykraczać   poza   obiekty 

dostępne naszym zmysłom, Hume nie akceptował jako pozbawionych  sensu obserwacyjnego. 

Odrzucał również wszelkie pytania o celowość i sens Wszechświata, czy też miejsce w nim 

człowieka, ponieważ uważał, że żadnej z tych kwestii nie da się sensownie powiązać z rzeczami, 

które   faktycznie   jesteśmy   w   stanie   obserwować.   Ten   kierunek   filozoficzny   znany   jest   jako 

„empirycyzm”, ponieważ uznaje się w nim fakty empiryczne za podstawę poznania.

Kant   akceptował   tezę   empirystów,   że   wszelka   wiedza   wychodzi   od   naszego 

doświadczenia   świata,   lecz,   jak   już   wspomniałem,   uważał   jednocześnie,   iż   ludzie   posiadają 

pewną   wiedzę   wrodzoną,   która   jest   niezbędnym   warunkiem   możliwości   jakiegokolwiek 

myślenia. Zatem w procesie myślenia zbiegają się dwie składowe: dane zmysłowe i wiedza  

priori.  Kant zastosował swą teorię do zbadania granic tego, co ludzie z samej istoty swoich 

zdolności   obserwowania   i   rozumowania   mogą   mieć   nadzieję   poznać   w   ogóle.   Jego   krytyka 

metafizyki   polegała   na   tym,   że   nasze   myślenie   może   odnosić   się   jedynie   do   obszaru 

background image

doświadczenia,   do   świata   zjawiskowego,  który  faktycznie   obserwujemy.   Nie   mamy   żadnych 

podstaw, by zakładać, że mogłoby się ono odnosić do hipotetycznej dziedziny wykraczającej 

poza rzeczywistość zjawisk. Innymi słowy, nasze myślenie odnosi się do rzeczy-jak-je-widzimy, 

natomiast nie jest w stanie powiedzieć nam niczego o rzeczach-samych-w-sobie. Jakakolwiek 

próba spekulowania o „rzeczywistości” leżącej poza obiektami  jezpośredniego doświadczenia 

skazana jest na niepowodzenie.

Jakkolwiek   po   tych   atakach   snucie   teorii   metafizycznych   stało   się   liemodne,   część 

filozofów   i   przyrodników   nadal   zajmowała   się   rozważaniami,   co   naprawdę   kryje   się   pod 

powierzchnią zjawisk świata fenomenalnego. W ostatnim czasie wiele odkryć w dziedzinie fizyki 

teoretycznej,   kosmologii   i   teorii   komputerów   doprowadziło   io   zwiększenia   zainteresowania 

niektórymi kwestiami tradycyjnie należącymi do metafizyki. Badania nad „sztuczną inteligencją” 

ożywiły   dyskusję   nad   problemem   wolnej   woli   i   relacji   umysł-ciało.   Odkrycie   Wielkiego 

Wybuchu zrodziło pytanie o sposób, w jaki fizyczny Wszechświat w ogóle zaistniał. Mechanika 

kwantowa wydobyła na jaw skomplikowany charakter związków obserwatora z tym, co podlega 

obserwacji. Teoria chaosu ujawniła, że relacje pomiędzy trwałością a zmianą bynajmniej nie są 

proste.

Ponadto   wśród   fizyków   pojawiła   się   koncepcja   Teorii   Wszystkiego   -   połączenia 

wszystkich   praw   fizyki   w   ramach   jednego,   opartego   na   matematyce,   systemu   pojęciowego. 

Skupiono   także   uwagę   na   istocie   samych   praw   fizyki.   Dlaczego   przyroda   wybrała   jeden 

konkretny zbiór praw zamiast innego? Dlaczego dają się one wyrazić w kategoriach matematyki? 

Czy prawa, jakie faktycznie obserwujemy, są w jakiś sposób wyróżnione? Czy mogliby istnieć 

rozumni obserwatorzy we Wszechświecie opisywanym przez jakiś inny zestaw praw?

Termin   „metafizyka”   zaczął   oznaczać   „teorie   o   teoriach”   fizycznych.   Nagle   stały   się 

modne   rozważania   o   „klasach   praw”   zamiast   rzeczywistych   praw   rządzących   naszym 

Wszechświatem.   Poświęcano   uwagę   hipotetycznym   wszechświatom   o   własnościach   zupełnie 

odmiennych od naszego, starając się stwierdzić, czy nasz Wszechświat jest w jakikolwiek sposób 

wyróżniony. Pewni teoretycy rozpatrywali możliwość istnienia „praw dotyczących praw”, które 

pozwalałyby   „wybrać”   prawa   naszego   Wszechświata   spośród   szerszej   ich   klasy.   Niektórzy 

skłonni   byli   nawet   przyjąć,   że   owe   inne   wszechświaty,   rządzące   się   odmiennymi   prawami, 

realnie istnieją.

W   samej   rzeczy,  w   tym   sensie   fizycy   uprawiali   metafizykę   od   dawna.   Praca   fizyka 

background image

teoretycznego   polega   miedzy   innymi   na   badaniu   pewnych   wyidealizowanych   modeli 

matematycznych,   które   miałyby   odawać   jedynie   pewne   wąskie   aspekty   rzeczywistości,   i   to 

często jedynie  w sposób symboliczny.  Modele te odgrywają rolę „wszechświatów-zabawek”, 

które bada się dla nich samych, niekiedy jako ćwiczenie umysłu, lecz częściej, by rzucić nieco 

światła na świat rzeczywisty poprzez znalezienie pewnych cech, które byłyby wspólne różnym 

modelom.   Nazwy   tych   wszechświatów-zabawek   często   pochodzą   od   nazwisk   ich   twórców. 

Mamy  zatem  model  Thirringa,  model  Sugawary,  model  Tauba-NUT, maksymalnie  rozciągły 

wszechświat   Kruskala,   i   tak   dalej.   Teoretycy   zajmują   się   nimi   ze   względu   na   to.   że   w 

przeciwieństwie   do   modeli   bardziej   realistycznych   zazwyczaj   dają   się   one   ściśle   wyrazić 

matematycznie. Moja własna praca około dziesięciu lat temu była w znacznej części poświęcona 

badaniu efektów kwantowych w modelach Wszechświata o jednym zamiast trzech wymiarów. 

Miało to na celu uczynienie rozważanych problemów łatwiejszymi. Założeniem było, że niektóre 

z istotnych własności modelu jednowymiarowego powinny się zachować również w modelach 

trójwymiarowych.   Nikt   nie   wysuwał   tezy,   iż   Wszechświat   miałby   być   naprawdę 

jednowymiarowy.   Wraz   z   moimi   współpracownikami   badałem   owe   hipotetyczne   światy,   by 

zdobyć wiedzę o własnościach pewnego typu praw fizycznych, własnościach, które mogłyby się 

również odnosić do praw rządzących rzeczywistym Wszechświatem.

background image

Czas i wieczność: fundamentalny paradoks istnienia

„Myślę,   więc   jestem”.   Tymi   sławnymi   słowami   siedemnastowieczny   filozof   Rene 

Descartes  wyraził  to, co uważał za podstawową wypowiedź  o rzeczywistości, z którą każdy 

myślący   człowiek   może   się   zgodzić.   Najbardziej   pierwotnym   doświadczeniem   jest 

doświadczenie naszego własnego istnienia. Jednakże nawet w tej bezdyskusyjnej tezie zawarte 

jest jądro paradoksu, który uparcie przewija się w dziejach ludzkiej myśli. Bycie jest pewnym 

stanem, zaś myślenie procesem. Kiedy myślę, stan mojego umysłu zmienia się z upływem czasu. 

Niemniej jednak „ja”, będące podmiotem tego stanu, pozostaje to samo. Jest to prawdopodobnie 

najstarszy z problemów metafizycznych omawianych w tej książce, i to on właśnie ujawnił się 

ponownie   z   pełną   mocą   we   współczesnej   metodologii   nauki.   Jakkolwiek   doświadczenie 

własnego   „ja”   jest   naszym   doświadczeniem   pierwotnym,   doświadczamy   również   świata 

zewnętrznego i przenosimy na niego tę samą paradoksalną opozycję procesu i bycia; tego, co 

wydarza się w czasie, i tego, co pozaczasowe. Z jednej strony, świat ciągle istnieje; z drugiej 

strony, nieustannie się zmienia. Stałych punktów odniesienia doszukujemy się nie tylko w swej 

podmiotowej   niezmienności,   lecz   zarazem   w   trwałości   rzeczy  i   własności   należących   do 

otaczającego nas świata. Tworzymy pojęcia takie jak „człowiek”, „drzewo”, „góra”, „słońce”. 

Nawet jeżeli zdajemy sobie sprawę, że obiekty nie są wieczne, charakteryzują się one pewną 

trwałością, która umożliwia traktowanie ich jako odrębnych bytów. Jednakże na tło tego niby-

trwałego bycia nakłada się ustawiczna zmiana. Wszystko jest procesem. Teraźniejszość ginie w 

mroku przeszłości, a przyszłość „nastaje”: mamy tu fenomen stającego-się-bytu. „Istnieniem” 

nazywamy właśnie to paradoksalne zespolenie bycia i stawania się.

Człowiek,   być   może   z   powodów   psychologicznych,   lękając   się   swej   własnej 

śmiertelności,   niestrudzenie   poszukuje   trwałych   aspektów   rzeczywistości.   Ludzie   rodzą   się   i 

umierają, drzewa rosną i usychają, nawet góry podlegają stopniowej erozji, a obecnie wiemy, że 

nawet słońce nie będzie świeciło wiecznie. Czy istnieje cokolwiek autentycznie stałego, na czym 

można by polegać? Był czas, że za niezmienne uznawane były niebiosa, a słońce i gwiazdy miały 

trwać z wieczności w wieczność. Lecz teraz wiemy, że obiekty astronomiczne nie istniały od 

zawsze, ani nie będą trwać w nieskończoność. Astronomowie odkryli, że w rzeczywistości cały 

Wszechświat podlega ewolucji.

Czy istnieje zatem coś absolutnie stałego? W poszukiwaniu odpowiedzi na to pytanie 

background image

nasza   myśl   nieuniknienie   zwraca   się   od   świata   tego,   co   fizyczne   i   materialne,   w   dziedzinę 

mistyki i abstrakcji. Pojęcia takie jak „logika”, „liczba”, „dusza” czy też „Bóg” pretendowały 

wielokrotnie w dziejach do roli podstawy wizji rzeczywistości, którą można by uznać za trwałą. 

Ale   w   każdym   przypadku   pojawia   się   ten   nieznośny   paradoks   istnienia:   w   jaki   sposób 

zakotwiczyć zmienny świat percepcji w niezmiennym świecie abstrakcyjnych pojęć?

Już u zarania systematycznej filozofii, w starożytnej Grecji, z dychotomią tą zmierzył się 

Platon,   dla   którego   prawdziwą   rzeczywistość   stanowił   transcendentny   świat   niezmiennych, 

abstrakcyjnych Idei czyli doskonałych Form, dziedzina relacji matematycznych i wzorcowych 

struktur geometrycznych. Miała to być dziedzina czystego bytu, niedostępna zmysłom. Zmienny 

świat naszego bezpośredniego doświadczenia - świat stawania się - był dla niego czymś ulotnym, 

efemerycznym, iluzorycznym. Świat obiektów materialnych miał być zaledwie bladym odbiciem 

czy   też   naśladownictwem   świata   idealnych   Form.   Platon   ilustrował   zależność   między   tymi 

dwoma   światami   za   pomocą   metafory.   Wyobraźmy   sobie,   że   jesteśmy   uwięzieni   w   jaskini 

plecami do światła. Obiekty przesuwające się przed wejściem jaskini rzucają cień na jej ścianę. 

Cienie te byłyby niedoskonałym odwzorowaniem prawdziwych form. Platon przyrównywał świat 

naszych doznań zmysłowych właśnie do świata cieni na ścianie jaskini. Jedynie niezmienny świat 

Idei „rozświetlony był słońcem rozumu”.

Platon   wykoncypował   dwa   bóstwa,   które   miałyby   rządzić   tymi   światami.   U   szczytu 

świata idealnych  Form było  Dobro, wieczny i niezmienny byt, istniejący poza przestrzenią i 

czasem.   Zamknięty   w   półrzeczywistym,   zmiennym   świecie   obiektów   i   sił   materialnych   był 

natomiast   tak   zwany   Demiurg,   którego   zadaniem   było   wprowadzanie   w   istniejącą   materię 

porządku, posługując się Formami jako czymś w rodzaju matrycy czy też planu. Jednak, będąc 

dalekim od doskonałości,  tak ukształtowany świat  nieustannie  rozpada się i wymaga  stałych 

wysiłków   twórczych   Demiurga.   W   ten   sposób   powstaje   zmienność   świata   naszych   wrażeń 

zmysłowych.   Platon   był   świadom   fundamentalnej   opozycji   między   byciem   a   stawaniem   się, 

między pozaczasowymi,  wiecznymi  Formami a zmiennym  światem ludzkiego doświadczenia, 

lecz nie uczynił żadnego poważnego wysiłku, aby je pogodzić. Zadowolił się jedynie nadaniem 

temu drugiemu statusu częściowo iluzorycznego, uznając, że wyłącznie to, co pozaczasowe i 

wieczne, ma prawdziwą wartość.

Uczeń   Platona,   Arystoteles,   odrzucał   koncepcję   bytujących   poza   czasem   form, 

konstruując   w   ich   miejsce   obraz   świata   jako   żywego   organizmu,   który   tak   jak   embrion 

background image

ukierunkowany   jest   w   swym   rozwoju   ku   ostatecznemu   celowi.   Według   niego,   kosmos   jest 

przeniknięty celowością i popychany ku swemu przeznaczeniu przez przyczyny celowe. Każdy 

obiekt przyrody ożywionej wyposażony jest w duszę, która kieruje jego celową działalnością, 

lecz   Arystoteles   uważał   te   dusze   za   immanentne   składowe   samych   organizmów,   a   nie   byty 

transcendentne w sensie platońskim. W tej animistycznej wizji Wszechświata nacisk położony 

został   na   proces   dokonujący   się   poprzez   celowo   zorientowane   zmiany.   Zatem   moglibyśmy 

przyjąć,  że, w przeciwieństwie  do Platona, Arystoteles  daje pierwszeństwo stawaniu się nad 

byciem.   Niemniej   jednak   jego   świat   nadal   stanowił   paradoksalne   połączenie   tych   dwóch 

przeciwieństw. Cele, ku którym zmierzała ewolucja bytów, były niezmienne; to samo dotyczyło 

dusz.   Ponadto   wszechświat   Arystotelesa,   jakkolwiek   oparty   na   ciągłym   rozwoju,   nie   miał 

początku w czasie, zawierając obiekty - ciała niebieskie - które były „odwieczne, niezniszczalne i 

wiekuiste”, poruszające się w nieskończoność po ustalonych, doskonałych orbitach kołowych.

Tymczasem   na   Bliskim   Wschodzie   powstała   judaistyczna   wizja   świata,   oparta   na 

przymierzu Jahwe z narodem wybranym Izraela. Tutaj nacisk położono na objawianie się Boga w 

dziejach,   tak   jak   zostało   ono   przedstawione   w   relacjach   historycznych   Starego   Testamentu, 

znajdując swój najpełniejszy wyraz w Księdze Rodzaju, poprzez zawarty w niej opis stworzenia 

świata przez Boga w pewnym określonym momencie w przeszłości. Mimo to Żydzi głosili, że 

ich Bóg jest niezmienny i transcendentny. I w tym przypadku nie uczyniono żadnej poważnej 

próby, by rozwikłać nieunikniony paradoks, iż niezmienny Bóg zmienia swe celowe działania w 

zależności od okoliczności historycznych.

Na usystematyzowaną wizję świata podejmującą w istotny sposób kwestię paradoksów 

związanych z czasem trzeba było czekać aż do piątego wieku przed naszą erą, kiedy to pojawiły 

się prace św. Augustyna z Hippony. Augustyn uznawał czas za składnik świata fizycznego - 

część   stworzenia,   więc   zdecydowanie   umieścił   Stwórcę   poza   strumieniem   czasu.   Idea   poza 

czasowego Bóstwa nie dawała się jednak łatwo pogodzić z doktryną chrześcijańską. Szczególne 

trudności wiązały się w tym przypadku ze zbawczą misją Chrystusa: Cóż miałoby to oznaczać, że 

pozaczasowy Bóg dokonuje wcielenia i umiera na krzyżu w konkretnym czasie historycznym? 

Jak   można   pogodzić   Bożą   niepodatność   na   wpływy   z   cierpieniem,   jakie   stało   się   udziałem 

Chrystusa?   Dyskusja   ta   została   podjęta   ponownie   w   trzynastym   wieku,   kiedy   to   w   nowo 

powstałych   uniwersytetach   w   Europie   pojawiły   się   przekłady   prac   Arystotelesa,   oddziałując 

głęboko   na   ówczesną   myśl   filozoficzną.   Młody   dominikanin   z   Paryża,   Tomasz   z   Akwinu, 

background image

postawił   sobie   za   cel   pogodzenie   religii   chrześcijańskiej   z   greckimi   wzorcami   racjonalnego 

filozofowania.   Sformułował   on   ideę   trancendentnego   Boga   bytującego   na   podobieństwo 

platońskich idei poza przestrzenią i czasem. Opisał następnie Boga za pośrednictwem szeregu 

dobrze   określonych  przymiotów  -  jako  byt  doskonały,  prosty,  pozaczasowy,   wszechmocny   i 

wszechwiedzący,   próbując   udowodnić   ich   konieczny   i   niesprzeczny   charakter   na   drodze 

logicznej, podobnie jak w przypadku twierdzeń geometrii. Chociaż jego prace wywarły wielki 

wpływ,   Akwinata   i   jego   zwolennicy   mieli   ogromne   trudności   w   określeniu   związków   tego 

abstrakcyjnego,   niezmiennego   Boga   z   zależnym   od   czasu   światem   fizycznym   oraz   Bogiem 

będącym obiektem czci i wiary chrześcijańskiej. Ten i inne jeszcze problemy doprowadziły do 

potępienia   prac  Tomasza  przez  biskupa  Paryża,  jakkolwiek  został  on  później  oczyszczony  z 

zarzutów i w końcu kanonizowany.

Nelson   Pike   w   swojej   książce  God   and   Timelessness  [Pozaczasowy   Bóg]   po 

wyczerpującym   przestudiowaniu   tego   zagadnienia   dochodzi   do   wniosku:   „Powziąłem   teraz 

podejrzenie,   iż   doktryna   o   pozaczasowości   Boga   została   wprowadzona   do   teologii 

chrześcijańskiej,   ponieważ   filozofia   platońska   była   w   owym   czasie   modna,   a   doktryna   ta 

wydawała   się   bardzo   korzystna   z   punktu   widzenia   elegancji   systemu.   Gdy   raz   została 

wprowadzona, zaczęła później żyć swym własnym życiem”. Filozof John O'Donnell wyciągnął 

ten   sam   wniosek;   jego   książka  Trinity   and   Temporality  [Trójca   a   czas]   podejmuje   sprawę 

konfliktu pomiędzy platońska pozaczasowością a judeochrześcijańską historycznością: „Skłonny 

jestem przypuszczać, że w miarę jak rozwijały się kontakty chrześcijaństwa z myślą helleńską 

(...),   usiłowało   ono   stworzyć   syntezę,   która   miała   wewnętrzne   pęknięcie   dokładnie   w   tym 

miejscu.   (...)   Ewangelia   w   połączeniu   z   pewnymi   hellenistycznymi   tezami   o   naturze   Boga 

prowadziła w ślepe zaułki, z których Kościół musiał się potem wywikływać”. Do sprawy tych 

„ślepych zaułków” powrócimy w rozdziale 7.

Średniowieczna Europa była świadkiem powstania nowożytnej nauki i związanego z nią 

całkiem nowego sposobu spojrzenia na świat. Uczeni, tacy jak Roger Bacon i, później, Galileo 

Galilei,   podkreślali   wagę   zdobywania   wiedzy   poprzez   dokładne,   ilościowe   eksperymenty   i 

obserwacje. Dokonywali oni rozdziału między Człowiekiem i przyrodą, pojmując eksperyment 

na kształt dialogu z przyrodą, w którym ujawnia ona swe sekrety. Racjonalny porządek przyrody, 

sam w sobie pochodzący od Boga, przejawiał się, ich zdaniem, w postaci ścisłych praw. Tak oto 

echo   niezmiennego,   pozaczasowego   Boga   Platona   i   Akwinaty   wkracza   do   nauki   w   postaci 

background image

wiecznych praw - koncepcji, która osiągnęła najdoskonalszą formę w monumentalnym dziele 

Izaaka   Newtona   w   siedemnastym   wieku.   W   fizyce   newtonowskiej   czyni   się   wyraźne 

rozróżnienie między stanami świata, które zmieniają się z chwili na chwilę, rządzącymi nimi 

prawami, które pozostają niezmienne. Jednak znowu natykamy się tu na trudność pogodzenia 

bycia i stawania , gdyż nie potrafimy wyjaśnić upływu czasu w świecie opartym pozaczasowych 

prawach. Stanowi to zagadnienie tak zwanej „strzałki czasu”, które miało odtąd trapić fizykę i 

jest przedmiotem dyskusji i intensywnych  badań do dnia dzisiejszego. Żadna próba opisania 

świata, czy to na gruncie naukowym czy logicznym, nie może być uznana za udaną, dopóki nie 

wyjaśni paradoksalnego związku zmienności i trwania, bycia i stawania się, w żadnej tematyce 

opozycja ta nie znajduje bardziej jaskrawego wyrazu niż w zagadnieniu początku Wszechświata.

background image

Rozdział drugi

CZY WSZECHŚWIAT MOŻE STWORZYĆ SAM SIEBIE?

Zadaniem nauki jest ustalenie, w jaki sposób zaistnial Wszechświat.

John Wheeler

Zazwyczaj uważamy,  że przyczyny poprzedzają powodowane przez siebie skutki. Jest 

zatem   naturalne,  iż   próbujemy   wyjaśnić  Wszechświat  poprzez   odwołanie   się  do  sytuacji  we 

wcześniejszych stadiach jego rozwoju. Jednakże, nawet gdyby się nam udało uzasadnić obecny 

stan Wszechświata poprzez stan, w jakim się on znajdował, powiedzmy, miliard lat temu, czy 

osiągnęlibyśmy przez to cokolwiek poza przesunięciem tajemnicy o miliard lat wstecz? Przecież 

z pewnością próbowalibyśmy wtedy uzasadnić stan Wszechświata przed miliardem lat poprzez 

jego stan w jeszcze wcześniejszej epoce, i tak dalej. Czy ten ciąg przyczyn i skutków ma jakiś 

kres? Przekonanie, że „to wszystko nie mogło powstać samo z siebie”, jest głęboko zakorzenione 

w kulturze zachodniej. Ponadto powszechnie zakłada się, iż to „coś” wykracza poza dziedzinę 

badań   naukowych   i   ma   w   tym   czy   innym   sensie   charakter   nadnaturalny.   W   tym   toku 

rozumowania  powiada się, że naukowcy potrafią  niewątpliwie  bardzo przemyślnie  uzasadnić 

wiele rzeczy; być może uda im się kiedyś wyjaśnić cały świat fizyczny, lecz w swoim łańcuchu 

uzasadniania  muszą dojść do punktu, poza który nauka nie może  się posunąć. Ten punkt to 

stworzenie Wszechświata jako całości, ostateczny początek świata fizycznego.

Jest to tak zwany argument kosmologiczny,  który, w tej czy innej formie, był  często 

przytaczany przy udowadnianiu istnienia Boga. W przeciągu wieków był on stale udoskonalany i 

dyskutowany   przez   teologów   i   filozofów,   niejednokrotnie   w   bardzo   wyrafinowany   sposób. 

Zagadnienie początku Wszechświata jest chyba jedynym obszarem, gdzie uczony o poglądach 

ateistycznych  nie czuje się zbyt  pewnie. Wnioski z argumentu kosmologicznego były,  moim 

zdaniem,   trudne   do   zakwestionowania   aż   do   ostatnich   lat,   kiedy   to   podjęto   poważną   próbę 

wyjaśnienia   początków   Wszechświata   w   ramach   fizyki.   Od   razu   zaznaczę,   że   to   konkretne 

rozwiązanie nie musi wcale być słuszne. Niemniej jednak sądzę, iż nie w tym rzecz. Chodzi o 

to,czy do powstania Wszechświata konieczny był jakiś nadnaturalny t stwórczy czy też nie. Jeżeli 

jesteśmy   w   stanie   stworzyć   sensowną   naukową   wyjaśniającą   powstanie   fizycznego 

background image

Wszechświata,   to   przynajmniej   wiemy,   że   naukowe   rozwiązanie   tej   kwestii   jest   może, 

niezależnie od słuszności tej konkretnej teorii.

background image

Czy w dziejach świata miało miejsce stworzenie?

We   wszelkich   dyskusjach   dotyczących   początku   Wszechświata   przyjmowane   jest 

założenie, że Wszechświat faktycznie miał początek. Tymczasem koncepcja czasu przyjmowana 

w większości starożytnych kultur głosiła, iż świat nie miał początku, lecz podlega powtarzającym 

się bez końca cyklom. Ciekawe jest prześledzenie, jak zrodziły się idee tego typu. Plemiona 

prymitywne żyły w ścisłej styczności z przyrodą, gdyż ich przetrwanie zależało od rytmu pór 

roku   i   innych   okresowych   zjawisk   przyrody.   Na   przestrzeni   wielu   pokoleń   warunki   życia 

praktycznie   pozostawały   niezmienne,   zatem   objęcie   nieodwracalnej   zmiany   czy   też   postępu 

dziejów   było   im   zupełnie   obce.   Pytania   o   początek   i   koniec   świata   nie   mieściły   się   w   ich 

koncepcji   rzeczywistości;   zajmowali   się   za   to   mitami   wyrażającymi   powtarzalność   zjawisk 

przyrody i potrzebę zjednywania związanych z nimi bóstw, aby zapewnić sobie pomyślność i 

obfite plony. [Powstanie wielkich cywilizacji starożytnych w Chinach i na bliskim Wschodzie nie 

wpłynęło w znaczący sposób na zmianę tych poglądów. Stanley Jaki, należący do zgromadzenia 

benedyktynów uczony węgierskiego pochodzenia, posiadający stopień doktora [zarówno z fizyki, 

jak i z teologii, który przeprowadził szczegółowe badania dawnych cyklicznych koncepcji świata, 

zwrócił uwagę na fakt, że system dynastyczny w Chinach odzwierciedlał brak zainteresowania 

postępem historii: „Rachuba czasu w Chinach rozpoczynała się od nowa z nastaniem każdej 

kolejnej dynastii, co świadczy o tym, że Chińczycy pojmowali czas na sposób cykliczny, a nie 

linearny.   Faktycznie,   wszelkie   wydarzenia   z   dziedziny   polityki   cultury   układały   się   w   ich 

mniemaniu   w   swego   rodzaju   cykle,   Idące   odbiciem   ścierania   się   dwóch   podstawowych   sił 

Wszechświata, Yin i Yang. (...) Sukcesy występowały na przemian z porażkami, a po każdym 

wzroście następował upadek”.

System hinduski składał się z niezmiernie długich cykli, powiązanych w jeszcze większe 

cykle. Licząca cztery jugi mahajuga miała trwać 4,32 miliona lat; tysiąc mahajug tworzyło kalpę, 

dwie kalpy stanowiły dzień Brahmy; jeden cykl życia Brahmy składał się ze stu lat bramińskich, 

co   odpowiadało   mniej   więcej   311   bilionom   lat!   Jak   przyrównuje   hinduski   system   cykli 

czasowych do wiecznego kieratu, z którego nie można się wyzwolić, jego hipnotyczny wpływ 

przyczynił  się znacznie do tego, co określa on jako charakterystyczne  dla hinduskiej kultury 

przygnębienie   i   brak   nadziei.   Podobna   cykliczność   i   związany   z   nią   fatalizm   występowała 

również w kosmologiach Babilończyków, Egipcjan i Majów. Jaki przytacza historię Itza, dobrze 

background image

uzbrojonego   plemienia   Majów,   które   w   1698   roku   bez   walki   poddało   się   niewielkiemu 

kontyngentowi   wojsk   hiszpańskich,   poinformowawszy   osiemdziesiąt   lat   wcześniej   dwóch 

hiszpańskich misjonarzy, że data ta oznacza dla nich początek ery klęski.

Filozofia   grecka   również   podtrzymywała   koncepcję   odwiecznych   cykli,   lecz   w 

przeciwieństwie do fatalistycznej beznadziei nieszczęsnych Majów, Grecy uważali, że ich kultura 

stanowi ukoronowanie cyklu - szczyt postępu. Cykliczne pojmowanie czasu u Greków zostało 

przejęte przez Arabów, którzy stali się depozytariuszami kultury greckiej, zanim przekazali ją 

później, w średniowieczu, chrześcijaństwu. Wiele z poglądów na świat występujących obecnie w 

kulturze europejskiej wzięło swój początek z owej potężnej konfrontacji, która wtedy nastąpiła, 

pomiędzy filozofią grecką a tradycją judeochrześcijańską. Nie ulega wątpliwości, że dla doktryn 

judaizmu   i   chrześcijaństwa   kluczowy   jest   fakt,   iż   świat   został   stworzony   przez   Boga   w 

określonym konkretnym momencie w przeszłości i wszystko, co nastąpiło później, układa się w 

jednokierunkowy, postępujący ciąg. Religie te nadają historii sens właśnie poprzez wyznaczenie 

ciągu   istotnych   momentów   dziejowych   -   grzechu   pierworodnego,   przymierza,   wcielenia   i 

zmartwychwstania,   oraz   powtórnego   przyjścia   -   co   stoi   w   wyraźnej   sprzeczności   z   grecką 

koncepcją wiecznych powrotów. Starając się propagować liniową, a nie cykliczną, wizję czasu, 

pierwsi   Ojcowie   Kościoła,   pomimo   uznania,   jakie   żywili   dla   myśli   greckiej   jako   takiej, 

stanowczo odrzucali koncepcję cyklicznego Wszechświata występującą u pogańskich filozofów 

greckich.   I   tak   u   Tomasza   z   Akwinu   znajdujemy   zarówno   pochwały   dla   siły   argumentów 

Arystotelesa   na   rzecz   odwiecznego   istnienia   świata,   jak   i   wezwania,   aby   wierzyć,   że 

Wszechświat   miał   swój   początek,   gdyż   tak   podaje   Biblia.   Kluczowym   elementem 

juedeochrześcijańskiej   doktryny   o   stworzeniu   jest   to,   że   Stwórca   jest   całkowicie   odrębny   i 

niezależny   od   świata   stworzonego;   to   znaczy,   istnienie   Boga   nie   zapewnia   automatycznie 

istnienia świata, jak to ma miejsce w niektórych wierzeniach pogańskich, gdzie świat fizyczny 

stanowi   emanację   Boga   jako   konieczne   dopełnienie   jego   bytu.   Przeciwnie,   świat   zostaje 

powołany   do   istnienia   w   określonym   momencie   czasu   w   wyniku   mającego   nadnaturalny 

charakter stworzenia jako celowa decyzja istniejącego wcześniej Boga.

Jakkolwiek ta koncepcja stworzenia nie wydaje się skomplikowana, była ona w ciągu 

wieków przedmiotem zażartych sporów doktrynalnych, po części dlatego, że starożytne teksty, w 

których się ona pojawia, są niebyt konkretne. Przykładem może tu być biblijny opis stworzenia 

świata   w   Księdze   Rodzaju,   w   znacznej   mierze   oparty   na   wcześniejszych   bliskowschodnich 

background image

mitach   o   stworzeniu,   który   zawiera   wiele   pięknych   sformułowań   poetyckich,   lecz   niewiele 

konkretów. Nie jesteśmy na jego podstawie w stanie rozstrzygnąć,  czy Bóg jedynie  stwarza 

porządek w ramach pierwotnego chaosu, stwarza materię i światło w istniejącej pustce, czy też 

akt stworzenia ma charakter jeszcze bardziej fundamentalny. Takie niewygodne pytania można 

mnożyć dalej. Czym zajmował się Bóg, zanim stworzył świat? Dlaczego stworzył go w tym, a 

nie innym, momencie? Jeżeli Bóg mógł istnieć odwiecznie bez świata, co skłoniło go do podjęcia 

decyzji o jego stworzeniu?

Pismo   św.   pozostawia   w   tych   kwestiach   wiele   miejsca   na   interpretację.   I   takie 

interpretacje istotnie powstały. Chrześcijańska doktryna o stworzeniu świata ukształtowała się 

faktycznie w znacznej części długo po powstaniu Księgi Rodzaju, pod wpływem zarówno myśli 

greckiej, jak i judaistycznej. Z naukowego punktu widzenia szczególnie istotne są dwie kwestie: 

pierwsza to relacja Boga i czasu, druga to relacja Boga i materii.

Wszystkie wielkie religie Zachodu uważają Boga za byt wieczny, lecz słowo „wieczny” 

można rozumieć na dwa różne sposoby. Z jednej strony, może ono wyrażać fakt, że Bóg istnieje 

od nieskończenie dawna i będzie istniał w nieskończoność w przyszłości; z drugiej strony może 

oznaczać, że Bóg bytuje całkowicie poza czasem. Jak wspomniałem w rozdziale 1, św. Augustyn 

skłaniał się ku temu drugiemu poglądowi, gdy twierdził, że Bóg stworzył świat „wraz z czasem, a 

nie   w   czasie”.   Przez   uczynienie   czasu   częścią   fizycznego   świata,   zamiast   sceną,   na   której 

dokonuje się akt stworzenia tego świata, i usunięcie Boga całkowicie poza jego obręb, Augustyn 

zręcznie uniknął problemu, co działo się z Bogiem, zanim stworzył świat.

Jednak miało to swoją cenę. Siła argumentu „to wszystko nie mogło powstać samo z 

siebie” jest oczywista dla każdego. W siedemnastym wieku modny był pogląd, że Wszechświat 

jest gigantycznym mechanizmem, który został wprawiony w ruch przez Boga. Także obecnie 

wielu ludzi skłania się ku pojmowaniu Boga jako Pierwszego Poruszyciela czy też Pierwszej 

Przyczyny w kosmicznym ciągu przyczyn i skutków. Ale w jakim sensie Bóg bytujący poza 

czasem mógłby być przyczyną czegokolwiek? Trudność ta powoduje, że zwolennicy koncepcji 

pozaczasowego   Boga   akcentują   w   większym   stopniu   jego   rolę   w   zachowywaniu   świata 

stworzonego w każdym momencie jego istnienia. Nie rozróżnia się w tym przypadku stworzenia 

od podtrzymywania w istnieniu: z punktu widzenia pozaczasowego Boga są one tym samym 

aktem.

Podobnie stosunek Boga i materii prowadził także do trudności doktrynalnych. Niektóre z 

background image

mitów o stworzeniu, na przykład babilońskie, opisują kosmos  jako stworzony z pierwotnego 

chaosu (słowo „kosmos” oznaczało „porządek” lub „piękno”; to drugie znaczenie przetrwało do 

naszych czasów w słowie „kosmetyczny”). Według tego poglądu istnienie materii wyprzedza 

nadnaturalny   akt   stwórczy,   który   wprowadza   w   nią   ład.   Podobna   koncepcja   pojawiła   się   w 

starożytnej Grecji: demiurg Platona musiał stwarzać świat z już istniejącej materii. Stanowisko to 

było podzielane także przez chrześcijańskich gnostyków, którzy uważali materię za siedlisko 

zepsucia, a zatem za dzieło szatana, a nie Boga.

W samej rzeczy, posługiwanie się ciągle tym samym słowem „Bóg” w relacjonowaniu 

tych sporów może być mylące, zważywszy na wielką różnorodność koncepcji teologicznych, 

jakie występowały w dziejach. Wiara w bóstwo, które powołuje Wszechświat do istnienia, a 

potem „siada i przypatruje się”, określana jest mianem „deizmu”. W tym przypadku naturę Boga 

pojmuje   się   na   kształt   wielkiego   zegarmistrza,   kosmicznego   mechanika,   który   obmyśla   i 

konstruuje   olbrzymi,   skomplikowany   mechanizm,   a   następnie   wprawia   go   w   ruch. 

Przeciwieństwem deizmu jest „teizm”, wiara w Boga jako stworzyciela świata, uczestniczącego 

jednak ciągle w jego istnieniu, a w szczególności w życiu ludzi, z którymi utrzymuje stałą relację 

osobową, prowadząc ich do zbawienia. Zarówno w deizmie, jak i w teizmie występuje wyraźne 

rozgraniczenie  Boga i świata, Stwórcy i rzeczy  stworzonych.  Boga uważa się za całkowicie 

odrębnego i transcendentnego wobec świata fizycznego, jakkolwiek odpowiedzialnego za to, co 

się w nim dzieje. W systemie znanym pod nazwą „panteizmu” takie rozróżnienie nie występuje; 

Bóg   zostaje   utożsamiony   z   samym   światem:   wszystko   jest   częścią   Boga,   a   Bóg   jest   we 

wszystkim. Istnieje również „panenteizm”, podobny do panteizmu pod tym względem, że świat 

jest częścią Boga, lecz nie całym Bogiem. Jedną z metafor jest w tym przypadku pojmowanie 

świata jako ciała Boga.

Na koniec  trzeba  wspomnieć  o pewnych  uczonych,  wysuwających  koncepcję bóstwa, 

które rozwija się wraz ze Wszechświatem, stając się ostatecznie tak potężne, że przypomina 

platońskiego demiurga. Można sobie, na przykład, wyobrazić inteligentną istotę czy też nawet 

maszynę, która w swym rozwoju staje się coraz doskonalsza i opanowuje coraz większe obszary 

kosmosu, aż jej władza nad materią i energią staje się tak znaczna, że można tę inteligencję 

utożsamić z samym światem. Być może taką wszechmocną inteligencję rozwiną w przyszłości 

nasi potomkowie albo też jest ona obecnie udziałem jakichś pozaziemskich cywilizacji. Możliwe 

jest pomyślenie ewolucyjnego procesu, w którym zlewają się z sobą dwie lub więcej odrębne 

background image

inteligencje. Takie idee były wysuwane przez astronoma Freda Hoyle'a, fizyka Franka Tiplera i 

popularyzatora   nauki   Isaaca   Asimova.   „Bóg”   w   tych   koncepcjach   ewidentnie   nie   obejmuje 

całego   Wszechświata   i, jakkolwiek  obdarzony jest  znaczną   potęgą,  nie  jest wszechmocny,   a 

zatem   nie   może   być   uważany   za   stwórcę   Wszechświata   jako   całości,   a   jedynie   za 

odpowiedzialnego za narzucenie porządku pewnej jego części. (Oczywiście, jeśli nie wprowadzi 

się   jakiejś   niezwykłej   możliwości   oddziaływania   wstecz   w   czasie,   która   pozwalałaby   owej 

superinteligencji na stworzenie świata u jego początku w ramach jakiejś spójnej pętli przyczyn i 

skutków.   Tego   typu   elementy   pojawiają   się   u   fizyka   Johna   Wheelera.   Możliwość   taka   była 

rozważana   także   przez   Freda   Hoyle'a,   lecz   nie   w   kontekście   uniwersalnego   aktu   stworzenia 

świata).

background image

Stworzenie z niczego

W pogańskich mitach o stworzeniu przyjmuje się istnienie zarówno materii, jak i bóstwa, 

a   więc   są   one   zasadniczo   dualistyczne.   W   przeciwieństwie   do   nich   Kościół   pierwszych 

chrześcijan opowiedział się za doktryną „stworzenia z nicości”, zakładającą istnienie tylko Boga. 

Przyjmuje się w niej, że Bóg stworzył cały świat z niczego. Powołanie do istnienia wszystkich 

rzeczy   widzialnych   i   niewidzialnych   zostaje   zatem   przypisane   wolnemu   aktowi   stwórczemu 

Boga. Istotnym elementem tej doktryny jest Boża wszechmoc: moc stwórcza Boga nie podlega 

żadnym ograniczeniom, tak jak w przypadku platońskiego demiurga. W istocie, nie tylko Bóg nie 

jest ograniczony uprzednim istnieniem materii, lecz także żadnymi istniejącymi prawami fizyki, 

ponieważ   częścią   Jego   aktu   stwórczego   jest   właśnie   wprowadzenie   harmonii   i   porządku   do 

świata poprzez ustanowienie tych praw. Gnostycki pogląd, że materia jest siedliskiem zła, zostaje 

odrzucony jako niemożliwy do pogodzenia z Wcieleniem Chrystusa. Z drugiej strony, materia 

nie   jest   czymś   boskim,   jak   w   koncepcjach   panteistycznych,   gdzie   Bóg   jest   immanentny   w 

świecie. Fizyczny Wszechświat - dzieło stwórcze Boga - uważany jest za istniejący odrębnie od 

swego Stwórcy.

Znaczenie tego rozróżnienia pomiędzy Stwórcą a jego stworzeniem polega na tym, że 

świat stworzony jest zależny w swym istnieniu całkowicie od Stwórcy. Gdyby świat fizyczny 

sam   w   sobie   był   boskiej   natury   lub   też   stanowił   jakąś   bezpośrednią   emanację   Stwórcy, 

udzielałoby mu się konieczne istnienie Boga. Jednakże, ponieważ został stworzony z niczego, a 

sam   akt   stwórczy   był   realizacją   wolnej   woli   Boga,   istnienie   świata   nie   ma   charakteru 

koniecznego. Św. Augustyn pisze: „...uczyniłeś coś z niczego. Uczyniłeś niebo nad niebiosami i 

ziemię,   lecz   nie   z   siebie.   Gdybyś   je   uczynił   z   siebie,   byłyby   one   równe   jednororodzonemu 

Synowi   Twemu,   a   więc   i   Tobie”

2

.   Najbardziej   oczywistą   różnicą   pomiędzy   Stwórcą   a 

stworzeniem   jest   to,   że   Stwórca   jest   wieczny,   a   świat   stworzony   miał   początek. 

Wczesnochrześcijański  teolog Ireneusz pisał:  „Jednakże rzeczy  stworzone różne są od Tego, 

który je stworzył, i tego, co byłoby uczynione z Tego, który je uczynił. Albowiem On sam nie 

jest bytem stworzonym,  nie ma początku ani końca i posiada pełnię bytu. On sam istnieje z 

konieczności, lecz każda z rzeczy, które uczynił, miała swój początek”.

Odnośnie   interpretacji   stworzenia,   nawet   obecnie   utrzymują   się   różnice   doktrynalne 

pomiędzy głównymi odłamami Kościoła, i jeszcze większe różnice pomiędzy wielkimi religiami 

background image

świata. Z jednej strony mamy poglądy chrześcijańskich i islamskich fundamentalistów, oparte na 

dosłownym   rozumieniu   tradycyjnych   tekstów   religijnych;   z   drugiej   koncepcje   radykalnych 

myślicieli chrześcijańskich pojmujących stworzenie na sposób całkowicie abstrakcyjny. Niemniej 

jednak   wszyscy   są   zgodni,   że   świat   fizyczny   sam   w   sobie   jest,   w   tym   czy   innym   sensie, 

niezupełny. Nie jest w stanie sam siebie uzasadnić. Jego istnienie w ostatecznej instancji wymaga 

czegoś zewnętrznego wobec niego i może być pojęte wyłącznie jako zależne od jakiejś formy 

boskiej interwencji.

background image

Początek czasu

Wracając do poglądów naukowych na początek Wszechświata, można zapytać, na jakiej 

podstawie możemy sądzić, że taki początek faktycznie miał miejsce. Z pewnością możliwe jest 

wyobrażenie   sobie   wszechświata   o   nieskończonym   czasie   trwania   i   przez   większość   ery 

nowożytnego   rozwoju   nauki,   dzięki   pracom   Kopernika,   Galileusza   i   Newtona,   naukowcy 

faktycznie uważali, że Wszechświat istniał wiecznie. Jednakże przekonanie to związane jest z 

pewnymi  trudnościami. Newtonowi nie dawały spokoju konsekwencje odkrytego przez niego 

powszechnego prawa ciążenia, zgodnie z którym każde ciało materialne przyciąga wszelkie inne 

ciała. Zastanawiało go, co sprawia, iż cała materia we Wszechświecie spadając na siebie nie 

tworzy jednego wielkiego skupiska. W jaki sposób gwiazdy utrzymują się w przestrzeni bez 

żadnego   oparcia,   nie   poddając   się   działaniu   wzajemnego   przyciągania   grawitacyjnego? 

Rozwiązanie Newtona było genialnie proste. Materia Wszechświata skupiłaby się w jego środku 

ciężkości,   gdyby   taki   środek   faktycznie   istniał.   Jeśli   jednak   rozmiary   Wszechświata   są 

nieskończone   i   gwiazdy   są  w   nim   rozmieszczone   z  jednakową   gęstością   średnią,   to   nie   ma 

wyróżnionego   punktu,   ku   któremu   miałyby   one   spadać.   Każda   gwiazda   przyciągana   jest 

jednakowo we wszystkich kierunkach, a zatem siły grawitacji wzajemnie się znoszą.

Rozwiązanie to trudno uznać za w pełni zadowalające z powodu jego matematycznej 

niejednoznaczności: wszystkie wchodzące tu w grę siły są nieskończenie wielkie. Zatem pytanie, 

dlaczego Wszechświat nie kolapsuje, powracało wielokrotnie aż do obecnego stulecia. Było ono 

kłopotliwe   nawet   dla   Einsteina.   Swoją   własną   teorię   grawitacji   (ogólną   teorię   względności) 

prawie   bezpośrednio   po   jej   sformułowaniu   w   1915   roku   „poprawił”,   usiłując   ją   pogodzić   z 

modelem stabilnego Wszechświata. Poprawka ta polegała na wprowadzeniu dodatkowego członu 

w   równaniach   pola  grawitacyjnego   reprezentującego  siłę   odpychającą   -  coś  w  rodzaju  anty-

grawitacji. Gdyby udało się tak dobrać wielkość tej siły, aby odpowiadała ona oddziaływaniu 

grawitacyjnemu wszystkich obiektów Wszechświata, siły przyciągania i odpychania wzajemnie 

równoważyłyby się, co prowadziłoby do Wszechświata statycznego. Niestety, otrzymana w ten 

sposób równowaga okazała się niestabilna i pod wpływem najmniejszego zaburzenia któraś z sił 

uzyskałaby   przewagę:   Wszechświat   albo   rozproszyłby   się   w   nieskończoność,   albo   uległ 

kolapsowi.

Problem   uniknięcia   kolapsu   nie   był   jedyną   trudnością,   na   jaką   napotykała   koncepcja 

background image

istniejącego odwiecznie Wszechświata. Inną był tak zwany paradoks Olbersa, dotyczący wyglądu 

nocnego   nieba.   Polegał   on   na   tym,   że   jeżeli   Wszechświat   jest   nieskończony,   zarówno   w 

przestrzeni,   jak   i   w   czasie,   to   Ziemia   powinna   być   skąpana   w   świetle   pochodzącym   od 

nieskończonej liczby gwiazd. Prosty rachunek wykazuje, iż w takim razie niebo w nocy nie 

mogłoby   być   ciemne.   Paradoks   ten   można   usunąć   poprzez   przyjęcie   skończonego   wieku 

Wszechświata, ponieważ wtedy widzimy tylko te gwiazdy, których światło zdążyło dotrzeć do 

Ziemi od momentu jego powstania.

Obecnie jest dla nas oczywiste, że i tak żadna gwiazda nie świeci wiecznie, gdyż po 

jakimś czasie wyczerpie się jej paliwo. Jest to przykład ogólniejszej zasady: wieczne istnienie 

Wszechświata jest nie do pogodzenia z zachodzeniem w nim procesów nieodwracalnych. Jeśli 

jakieś układy fizyczne wchodzące w skład Wszechświata podlegają nieodwracalnym zmianom w 

skończonym   czasie,   to   zdążyłyby   one   zajść   już   dawno   temu,   a   zatem   nie   byłoby   możliwe, 

abyśmy   mogli   procesy   tego   typu   (na   przykład   świecenie   gwiazd)   obserwować   obecnie. 

Tymczasem procesy nieodwracalne występują we Wszechświecie dość powszechnie, co sprawia, 

iż pod pewnymi względami można go porównać do nakręconego zegara. Taki zegar po jakimś 

czasie   musi   stanąć,   podobnie   Wszechświat   nie   mógł   „chodzić”   od   zawsze,   bez   potrzeby 

„nakręcania”.

Naukowcy zaczęli uświadamiać sobie ten problem w połowie dziewiętnastego stulecia. 

Do tej pory fizycy zajmowali się prawami, które są odwracalne w czasie i nie wyróżniają ani 

przeszłości,   ani   przyszłości.   Jednakże   gdy   podjęli   badania   procesów   termodynamicznych, 

sytuacja   zupełnie   się   zmieniła.   Centralne   znaczenie   w   termodynamice   ma   jej   druga   zasada, 

zabraniająca, aby ciepło mogło samo z siebie przepływać od ciał zimnych do ciepłych, tak jak 

przepływa od ciał ciepłych do zimnych. Prawo to ma charakter nieodwracalny: wskazując jeden 

kierunek zmian, narzuca we Wszechświecie strzałkę czasu. Uczeni szybko doszli do wniosku, że 

Wszechświat   zmierza   nieuchronnie   do   stanu   równowagi   termodynamicznej.   To   dążenie   do 

wyrównania   wszelkich   różnic   temperatury   we   Wszechświecie   i   osiągnięcia   stanu   stabilnego 

określono   mianem   „śmierci   cieplnej”   Wszechświata.   Odpowiada   to   maksymalnemu 

nieuporządkowaniu   molekuł,   czyli   maksimum   entropii.   Z   faktu,   że   Wszechświat   dotąd   nie 

„umarł”,  to znaczy nie osiągnął  stanu maksymalnej  entropii,  wynika,  iż nie mógł  on istnieć 

odwiecznie.

W   latach   dwudziestych   astronomowie   stwierdzili,   że   tradycyjny   obraz   statycznego 

background image

Wszechświata i tak nie jest prawdziwy. Odkryto, że w rzeczywistości Wszechświat się rozszerza, 

a  galaktyki  oddalają się  od siebie.  Odkrycie  to legło  u podstaw  słynnej  hipotezy Wielkiego 

Wybuchu,   według   której   Wszechświat   zaistniał   w   określonym   momencie   przeszłości,   około 

piętnastu miliardów  lat temu,  w wyniku potężnej  eksplozji. Obserwowana obecnie ekspansja 

stanowiłaby pozostałość owego pierwotnego wybuchu. Teorię Wielkiego Wybuchu obwoływano 

niejednokrotnie   potwierdzeniem   biblijnego   opisu   stworzenia   świata   w   Księdze   Rodzaju. 

Wspomniał o tym nawet w 1951 roku papież Pius XII w przemówieniu do Papieskiej Akademii 

Nauk. Tymczasem analogie tej teorii z biblijną wersją są bardzo powierzchowne i wymagają 

traktowania opisu biblijnego w sposób czysto symboliczny. Co najwyżej można stwierdzić, że w 

obu przypadkach świat miał początek i było to wydarzenie jednorazowe, a nie stopniowy proces.

Teoria   Wielkiego   Wybuchu   w   naturalny   sposób   eliminuje   paradoksy   wiecznego 

Wszechświata. Ponieważ w tym przypadku wiek Wszechświata jest skończony, występowanie w 

nim   procesów   nieodwracalnych   nie   powoduje   żadnych   trudności.   Wszechświat   w   ewidentny 

sposób został „nakręcony”  na samym  początku i obecnie ciągle jeszcze ewoluuje siłą owego 

początkowego impulsu. Niebo w nocy jest ciemne, gdyż sięgamy wzrokiem w kosmos jedynie na 

skończoną   odległość   (około   piętnastu   miliardów   lat   świetlnych),   to   znaczy   maksymalną 

odległość,   jaką   światło   mogło   przebyć   w   drodze   do   Ziemi   od   początku   Wszechświata.   Nie 

pojawia się także problem Wszechświata kolapsującego pod wpływem własnej grawitacji. Skoro 

galaktyki oddalają się wzajemnie, nie grozi im spadnięcie na siebie, przynajmniej jeszcze przez 

jakiś czas.

Jednakże teoria ta, rozwiązując jedne problemy, staje z miejsca wobec innych, z których 

jednym   z   ważniejszych   jest,   co   właściwie   spowodowało   Wielki   Wybuch.   W   tym   miejscu 

natykamy   się   na   istotną   subtelność   co   do   rozumienia   samej   natury   Wielkiego   Wybuchu.   Z 

niektórych popularnych opracowań można odnieść wrażenie, jak gdyby była to eksplozja bryły 

hipergęstej materii znajdującej się w określonym miejscu w istniejącej pustej przestrzeni. Jest to 

duże   nieporozumienie.   Teoria   Wielkiego   Wybuchu   opiera   się   na   ogólnej   teorii   względności 

Einsteina, której jednym z podstawowych wniosków jest, że materia jest nierozerwalnie związana 

z przestrzenią i czasem. Związek ten ma niezwykłe istotne następstwa dla zagadnienia początku 

Wszechświata.   Jeżeli   wyobrazimy   sobie   „kosmiczny   film   puszczony   do   tyłu”,   to   ujrzymy 

galaktyki zbliżające się ku sobie, a następnie zlewające w jedną wielką masę. Potem materia 

galaktyczna ulega coraz większemu ściśnięciu aż do osiągnięcia stanu o ogromnej gęstości. Gdy 

background image

tak coraz bardziej zbliżamy się do momentu zerowego eksplozji, możemy sobie zadawać pytanie, 

czy istnieje jakaś graniczna wartość tej gęstości.

Łatwo się przekonać, że nie może być takiej granicy. Wyobraźmy sobie bowiem, iż jest 

taka  maksymalna  wartość gęstości. Pociągałoby to za sobą konieczność  istnienia  jakiejś siły 

odpychającej, zdolnej zrównoważyć ogromną siłę przyciągania grawitacyjnego, w przeciwnym 

przypadku   grawitacja   wzięłaby   górę   i   materia   ulegałaby   dalszej   kompresji.   Ponadto   ta 

przeciwdziałająca   siła   musiałaby   być   naprawdę   ogromna,   jako   że   siła   grawitacji   wzrasta 

nieograniczenie w miarę postępującej kompresji. Co mogłoby być taką siłą? Może coś w rodzaju 

wewnętrznego ciśnienia czy też sprężystości - kto wie, jakie siły występują w materii w tak 

ekstremalnych warunkach? Jednakże, mimo iż nie wiemy nic konkretnego o tych siłach, muszą 

one podlegać  pewnym  ogólnym  zasadom fizyki.  Na przykład,  w miarę  wzrostu sprężystości 

materii rośnie również prędkość rozchodzenia dźwięku wewnątrz niej. Wydaje się oczywiste, że 

gdyby   sprężystość   materii   w   pierwotnym   Wszechświecie   stała   się   wystarczająco   wysoka, 

prędkość dźwięku przekroczyłaby prędkość światła, co stoi w sprzeczności z teorią względności, 

która głosi, że żadne fizyczne oddziaływanie nie może się przenosić z prędkością większą niż 

światło.   Zatem   sprężystość   materii   nie   może   rosnąć   w   nieskończoność   i   na   pewnym   etapie 

ściskania   materii   siły   grawitacji   stałyby   się   większe   niż   siły   sprężystości,   co   oznacza,   że 

sprężystość byłaby niewystarczająca do powstrzymania procesu dalszej kompresji.

Wniosek   ten,   który   wyciągnęliśmy   w   odniesieniu   do   sił   działających   w   pierwotnym 

Wszechświecie, oznacza, że w warunkach krańcowo wielkiej gęstości, jakie panowały podczas 

Wielkiego Wybuchu, nie istniała żadna siła zdolna przeciwstawić się kolapsowi grawitacyjnemu, 

a zatem kolaps ten postępowałby w nieskończoność. Jeśli rozkład materii we Wszechświecie jest 

jednorodny,   to   w   momencie   początkowym   musiała   być   ona   nieskończenie   ściśnięta;   innymi 

słowy,   cały   Wszechświat   był   ściśnięty   do   jednego   punktu.   W   punkcie   tym   zarówno   siła 

grawitacji,   jak   i   gęstość   materii   były   nieskończone.   Taki   punkt   nazywany   jest   w   fizyce 

teoretycznej „osobliwością”.

Jakkolwiek   istnienie   osobliwości   początkowej   Wszechświata   wynika   już   z   całkiem 

elemementarnych   rozważań,   ścisły   dowód   wymaga   zastosowania   wyrafinowanych   metod 

matematycznych.   Został   on   przeprowadzony   przez   angielskich   fizyków-teoretyków   Rogera 

Penrose'a i Stephena Hawkinga. W szeregu silnych twierdzeń dowiedli oni, że osobliwości typu 

Wielkiego   Wybuchu   nie  da się  wyeliminować,  jeśli  w   ekstremalnych   warunkach  wczesnego 

background image

Wszechświata   grawitacja   nadal   pozostaje   siłą   przyciągającą.   Najistotniejszym   aspektem   ich 

pracy jest to, że osobliwość jest nieunikniona nawet w przypadku niejednorodnego rozkładu 

materii. Stanowi ona immanentną własność Wszechświata opisywanego przez równania teorii 

grawitacji Einsteina, lub, jeśli już o to chodzi, każdej podobnej teorii.

Idea osobliwości początkowej Wszechświata spotkała się ze znacznym sprzeciwem wśród 

fizyków  i kosmologów, gdy pojawiła się po raz pierwszy. Jeden z powodów tego sprzeciwu 

dotyczy wspomnianego faktu, że w ogólnej teorii względności czas, przestrzeń i materia stanowią 

nierozerwalną całość. Związek ten ma istotne konsekwencje dla ewolucji rozszerzającego się 

Wszechświata. Naiwnie rzecz biorąc, można by sobie wyobrażać galaktyki jako rozbiegające się 

w różnych kierunkach w pustej przestrzeni. Jednakże bardziej odpowiada rzeczywistości wizja, 

że to sama przestrzeń pęcznieje czy też się rozciąga; to znaczy, galaktyki oddalają się od siebie w 

wyniku tego, że przestrzeń pomiędzy nimi się rozszerza. (Czytelników, którym nie przychodzi 

łatwo wyobrażenie sobie, jak przestrzeń może się rozszerzać, odsyłam do mojej książki The Edge 

of Infinity  [Na skraju nieskończoności], gdzie kwestię tę omówiłem bardziej szczegółowo). I 

odwrotnie,   w   przeszłości   przestrzeń   była   skurczona.   Jeżeli   rozważymy   moment,   w   którym 

przestrzeń   była   nieskończenie   ściśnięta,   to   musiała   być   też   nieskończenie   skurczona.   Lecz 

przestrzeń, która skurczy się nieskończenie, musi dosłownie zniknąć, jak balon, który kurczy się i 

ostatecznie znika. A zasadnicza  jedność materii, przestrzeni i czasu oznacza, że czas w tym 

wypadku znika także. Nie ma czasu bez przestrzeni. W ten sposób osobliwość rozkładu materii 

jest zarazem osobliwością czasoprzestrzeni. Wszystkie prawa znanej nam fizyki sformułowane są 

w kategoriach przestrzeni i czasu, a zatem nie można ich stosować poza punktem, w którym czas 

i przestrzeń przestają istnieć.  Tak więc prawa fizyki  z konieczności przestają w osobliwości 

obowiązywać.

Obraz początku Wszechświata, do jakiego dochodzimy w ten sposób, godny jest uwagi. 

W   pewnym   skończonym   momencie   przeszłości   Wszechświat   zawierający   przestrzeń,   czas   i 

materię   znika   w   czasoprzestrzennej   osobliwości.   Tak   więc   początek   Wszechświata   oznacza 

pojawienie się nie tylko materii, ale również przestrzeni i czasu.

Trudno przecenić znaczenie tego wniosku. Ludzie często pytają: Gdzie nastąpił Wielki 

Wybuch? Tymczasem nie mamy tu do czynienia ze zdarzeniem, które zaszło w jakimś punkcie 

przestrzeni, lecz ze zdarzeniem, w którego wyniku zaistniała sama przestrzeń. To samo dotyczy 

pytania:  Co było  przed Wielkim  Wybuchem?  Jedyną  możliwą  odpowiedzią  jest, iż nie było 

background image

żadnego   „przedtem”,   gdyż   czas   również   powstał   w   momencie   Wielkiego   Wybuchu.   Jak 

wspominałem, św. Augustyn już w starożytności głosił, że świat zrodził się wraz z czasem, a nie 

w czasie, co odpowiada dokładnie poglądowi współczesnej nauki.

Jednakże   nie   wszyscy   naukowcy   skłonni   byli   się   z   tym   pogodzić.   Akceptując   fakt 

ekspansji Wszechświata, niektórzy kosmologowie usiłowali skonstruować teorie, w których czas 

i przestrzeń nie zaczynałyby się w osobliwości.

background image

Cykliczny Wszechświat raz jeszcze

Pomimo  zakorzenionej  w myśli  Zachodu  idei  stworzonego Wszechświata  i liniowego 

czasu koncepcja wiecznego powrotu pozostaje stale atrakcyjna. Nawet w obecnych czasach, już 

po szerokim uznaniu Wielkiego Wybuchu, pojawiały się próby powrotu do pojęcia cyklicznego 

Wszechświata.   Jak   wspominałem,   gdy   Einstein   formułował   ogólną   teorię   względności, 

naukowcy byli przekonani, że Wszechświat jest statyczny, co skłoniło go do wprowadzenia do 

swoich   równań   dodatkowego   członu   odpowiedzialnego   za   zrównoważenie   oddziaływania 

grawitacyjnego. Jednakże mniej więcej w tym samym czasie nieznany rosyjski fizyk-meteorolog 

nazwiskiem  Aleksander   Friedmann   zajął  się  badaniem   równań   Einsteina  i   ich  znaczenia   dla 

kosmologii.   Udało   mu   się   uzyskać   kilka   interesujących   rozwiązań,   z   których   wszystkie 

opisywały   Wszechświat   bądź   to   rozszerzający   się,   bądź   to   kurczący   się.   Jeden   z   układów 

rozwiązań   odpowiada   Wszechświatowi,   który   zaczyna   się   Wielkim   Wybuchem,   podczas 

ewolucji   jego  prędkość   rozszerzania   stopniowo  maleje,   a   następnie   zaczyna   z  powrotem   się 

kurczyć. Faza kontrakcji jest dokładnym odwróceniem fazy ekspansji, a zatem kurczenie staje się 

coraz   szybsze   i   wreszcie   Wszechświat   znika   w   „Wielkim   Zgnieceniu”   olbrzymiej   implozji 

będącej odwrotnością Wielkiego Wybuchu. Ten cykl naprzemiennej ekspansji i kontrakcji może 

się   następnie   powtarzać  ad   infinitum.   W   1922   roku   Friedmann   wysłał   opis   swego   modelu 

okresowego Wszechświata Einsteinowi, na którym nie wywarł on większego wrażenia. Dopiero 

w   parę   lat   później,   gdy   Edwin   Hubble   i   inni   astronomowie   potwierdzili   obserwacyjnie,   że 

Wszechświat naprawdę się rozszerza, prace Friedmanna zyskały należne uznanie.

Rozwiązania   Friedmanna   nie   wymuszają,   aby   Wszechświat   oscylował,   na   przemian 

kurcząc   się   i   rozszerzając.   Dopuszczają   one   również   Wszechświat   zaczynający   się   Wielkim 

Wybuchem,   który   rozszerza   się   bez   końca.   Która   z   tych   możliwości   ostatecznie   zostanie 

zrealizowana, zależy od tego, ile jest materii we Wszechświecie. Zasadniczo, przy obecności 

wystarczającej   ilości   materii,   jej   grawitaga   powstrzyma   ostatecznie   ucieczkę   galaktyk   i 

Wszechświat zacznie kolapsować z powrotem. Tak więc kosmiczny kolaps, którego obawiał się 

Newton,   faktycznie   miałby   miejsce,   jakkolwiek   dopiero   po   upływie   wielu   miliardów   lat.   Z 

przeprowadzonych pomiarów wynika, że gwiazdy stanowią zaledwie około 1% masy materii 

potrzebnej   do   zapoczątkowania   kolapsu   Wszechświata.   Jednakże   istnieją   silne   dane 

obserwacyjne przemawiające za tym, iż we Wszechświecie zawarta jest duża ilość niewidocznej, 

background image

tzw.   „ciemnej”   materii,   która   byłaby   w   stanie   wyrównać   brakującą   masę.   Naukowcy  nie   są 

wszakże zgodni, co miałoby stanowić te „ciemną materię”.

Jeżeli Wszechświat zawiera wystarczająco wiele materii, aby przejść w fazę kurczenia, 

musimy   rozważyć   możliwość,   że   jest   on   Wszechświatem   pulsującym.   Wiele 

popularnonaukowych   książek   z   dziedziny   kosmologii   omawia   taki   pulsujący   model 

Wszechświata, podkreślając, iż jest on zgodny z wizją świata zawartą w hinduizmie i innych 

religiach Wschodu uznających koncepcję cyklicznego świata. Czyżby oscylacyjne rozwiązanie 

równań Einsteina otrzymane przez Friedmanna stanowiło naukowy odpowiednik starożytnej idei 

wiecznego powrotu, a trwający wiele miliardów lat okres od Wielkiego Wybuchu do Wielkiego 

Zgniecenia odpowiadał Wielkiemu Rokowi Cyklu Życia Brahmy?

Jakkolwiek analogie te mogą być bardzo pociągające, znikają one przy bliższej analizie. 

Po pierwsze, nie mamy tu do czynienia  z oscylacjami  w matematycznym  sensie. Punkty,  w 

których miałoby następować przejście od Wielkiego Zgniecenia do Wielkiego Wybuchu, są w 

istocie   osobliwościami,   co   oznacza,   że   opisujące   ten   proces   równania   przestają   w   nich 

obowiązywać.   Aby   Wszechświat   przeszedł   od   fazy   kurczenia   do   fazy   rozszerzania   się   nie 

napotykając   osobliwości,   coś   musiałoby   przeciwstawić   się   przyciąganiu   grawitacyjnemu   i 

wyrzucić   materię   ponownie.   Krótko   mówiąc,   takie   odbicie   byłoby   możliwe,   gdyby   proces 

ewolucji zdominowany został przez ogromną siłę odpychającą, nazwijmy ją lewitacyjną, taką, 

jaką wprowadził Einstein do swoich równań, lecz o wiele rzędów wielkości większą.

Nawet gdyby okazało się to możliwe, cykliczny charakter modelu dotyczyłby jedynie 

zachowania się Wszechświata w wielkiej skali, a nie procesów fizycznych w nim zachodzących. 

Nadal obowiązywałoby drugie prawo termodynamiki, wymagające, żeby procesy te powodowały 

wzrost entropii, a zatem całkowita entropia Wszechświata wzrastała z cyklu na cykl. Prowadzi to 

do dość ciekawego efektu, odkrytego przez Richarda Tolmana w latach trzydziestych. Tolman 

stwierdził, że w miarę wzrostu entropii Wszechświata kolejne cykle stają się większe i dłuższe . 

W rezultacie okazuje się zatem, że Wszechświat nie jest w ogóle cykliczny w ścisłym sensie. Co 

dziwne   jednak,   pomimo   stałego   wzrostu   entropii,   Wszechświat   nigdy   nie   osiągnie   stanu 

równowagi   termodynamicznej   -   nie   istnieje   stan   o   maksymalnej   entropii.   Po   prostu   będzie 

pulsował bez końca, wytwarzając przez cały czas coraz to więcej entropii.

W   latach   sześćdziesiątych   astronom   Thomas   Gold   sądził,   że   udało   mu   się   znaleźć 

rzeczywiście  cykliczny model  Wszechświata.  Gold wiedział,  iż istniejący wiecznie  statyczny 

background image

Wszechświat   nie   jest   możliwy   do   utrzymania,   ponieważ   osiągnąłby   on   stan   równowagi 

termodynamicznej w skończonym czasie. Uderzył go fakt, że ekspansja Wszechświata oddala go 

od stanu równowagi termodynamicznej poprzez stałe ochładzanie zawartej w nim materii (jest to 

znane zjawisko ochładzania substancji przy jej rozprężaniu). Goldowi wydawało się, iż wzrost 

entropii   Wszechświata   można   by   powiązać   z   faktem,   że   się   on   rozszerza.   Jednakże   teza   ta 

prowadzi do paradoksalnego wniosku: gdyby Wszechświat zaczął się kurczyć, wszystkie procesy 

zaczęłyby   przebiegać   w   odwrotnym   kierunku   -   entropia   spadałaby,   a   drugie   prawo 

termodynamiki zostałoby odwrócone. Tak więc, w pewnym sensie, czas zacząłby płynąć do tyłu. 

Gold zwrócił uwagę, że odwrócenie to objęłoby wszystkie układy fizyczne, w tym również mózg 

i   pamięć   człowieka,   a   zatem   psychologiczna   strzałka   czasu   również   uległaby   odwróceniu: 

„pamiętalibyśmy” przyszłość, a nie przeszłość. Dla wszelkich istot obdarzonych świadomością, 

żyjących w takiej fazie widzianej przez nas jako kurczenie, uległyby odwróceniu także pojęcia 

przeszłości i przyszłości, a zatem uważałyby, że to one właśnie znajdują się w fazie rozszerzania, 

a z ich punktu widzenia my znajdowalibyśmy się w kurczącym się Wszechświecie (rysunek 3). 

Skoro w wyniku  tego odwrócenia  Wszechświat  stałby się doskonale  symetryczny  względem 

czasu, jego stan końcowy, Wielkie Zgniecenie, byłby tym samym co stan początkowy, Wielki 

Wybuch. Po utożsamieniu tych zdarzeń czas zamknąłby się w pętlę i Wszechświat można by 

uznać za rzeczywiście cykliczny.

Symetryczny  względem czasu model  Wszechświata  rozważany był  także  przez Johna 

Wheelera, który wysunął hipotezę, iż owo odrócenie biegu czasu mogłoby nie następować w 

sposób gwałtowny, lecz stopniowo, podobnie jak przejście przypływu w odpływ. Strzałka czasu 

nie   odwracałaby   się   nagle   w   momencie   maksymalnej   ekspansji,   lecz   podlegałaby   wpierw 

wahaniom, stając się coraz bardziej nieokreślona, zanim nastąpiłoby jej faktyczne odwrócenie. 

Wheeler spekulował, że w takim przypadku niektóre na pozór nieodwracalne procesy, takie jak 

rozpad promieniotwórczy jąder, mogłyby przebiegać wolniej, co poprzedzałoby ich odwrócenie, 

sugerując, że porównanie obecnego tempa rozpadu promieniotwórczego z wartościami z odległej 

przeszłości pozwoliłoby wykryć oznaki takiego spowolnienia.

Innym   zjawiskiem   wykazującym   wyraźną   strzałkę   czasu   jest   emisja   promieniowania 

elektromagnetycznego. Na przykład, sygnał radiowy zawsze zostaje odebrany po jego wysłaniu, 

a   nigdy   przedtem.   Dzieje   się   tak   dlatego,   że   gdy   nadajnik   generuje   fale   radiowe,   fale   te 

rozbiegają się z nadajnika na wszystkie strony i znikają w głębinach Wszechświata. Nigdy nie 

background image

zaobserwowano   modulowanych   fal   radiowych   dochodzących   z   obrzeży   Wszechświata,   które 

zbiegałyby się na antenie radiowej. (W terminologii technicznej fale rozbiegające się określa się 

jako „retardowane”, a fale zbiegające jako „adwansowane”). Gdyby jednak faktycznie strzałka 

czasu uległa odwróceniu w kurczącym się Wszechświecie, kierunek ruchu fal radiowych również 

by   się   odwrócił   -   zamiast   fal   retardowanych   mielibyśmy   wyłącznie   fale   adwansowane.   W 

koncepcji   Wheelera   oznaczałoby   to,   iż   bezpośrednio   po   Wielkim   Wybuchu   występowałyby 

wyłącznie   fale   retardowane,   lecz   w   miarę   przybliżania   się   momentu   maksymalnej   ekspansji 

powinno   pojawiać   się   coraz   więcej   fal   adwansowanych.   W   maksimum   -   liczba   fal 

adwansowanych   i   retardowanych   byłaby   równa,   natomiast   po   przejściu   do   fazy   kontrakcji 

zaczęłyby   dominować   z   kolei   fale   adwansowane.   Jeśli   koncepcja   ta   miałaby   być   słuszna, 

powinniśmy   obserwować   już   w   chwili   obecnej   pewną   niewielką   liczbę   fal   adwansowanych. 

Byłyby to w samej rzeczy fale radiowe dochodzące „z przyszłości”.

Jakkolwiek   idea   ta   mogłaby   wydawać   się   całkiem   fantastyczna,   została   w   latach 

siedemdziesiątych poddana testowaniu eksperymentalnemu przez astronoma Bruce'a Partridge'a. 

Eksperyment ten oparty był na tym, że fale radiowe skierowane ku ekranowi pochłaniającemu 

będą   w   100%   falami   retardowanymi.   Jeśli   jednak   pozwoli   się   im   rozchodzić   swobodnie   w 

przestrzeni, część z nich może osiągnąć „punkt zwrotny”. Zatem powinny one posiadać pewną 

domieszkę fal adwansowanych. Jeśli tak jest, fale adwansowane oddadzą z powrotem do anteny 

pewną   znikomą   część   energii   wyemitowanej   w   postaci   fal   retardowanych.   W   rezultacie 

powinniśmy zaobserwować niewielką różnicę w odpływie energii z anteny w zależności od tego, 

czy   jest   ona   otoczona   ekranem   pochłaniającym,   czy   też   fale   rozchodzą   się   swobodnie   w 

przestrzeni. Pomimo korzystania z bardzo czułej aparatury pomiarowej Partridge'owi nie udało 

się jednak znaleźć żadnych śladów fal adwansowanych.

Jakkolwiek   atrakcyjna   może   być   koncepcja   Wszechświata   symetrycznego   względem 

czasu,   bardzo  trudno   znaleźć  przemawiające   za  nią   rozsądne  argumenty.  Statystycznie   rzecz 

biorąc,   przeważająca   większość   dopuszczalnych   stanów   początkowych   Wszechświata   nie 

prowadzi   do   takiego   modelu;   „punkt   zwrotny”   otrzymamy   tylko   w   przypadku   bardzo 

szczególnego doboru warunków początkowych. Można to przyrównać do bomby eksplodującej 

we   wnętrzu   stalowego   pojemnika:   można   sobie   wyobrazić,   że   wszystkie   odłamki   odbiją   się 

zgodnie od ścian pojemnika i wracając na poprzednie miejsce, złożą się ponownie w bombę. O 

tego typu sytuacji nie da się powiedzieć, że jest całkowicie wykluczona, jednak oczywiste jest, że 

background image

wymaga ona wprost nieprawdopodobnego zbiegu okoliczności.

Niemniej   jednak   idea   Wszechświata   symetrycznego   w   czasie   okazała   się   na   tyle 

pociągająca,   że   podjął   ją   ostatnio   nawet   Stephen   Hawking   w   ramach   swojego   programu 

kosmologii kwantowej, który omówię pokrótce w dalszej części książki. Jednakże po jej bardziej 

szczegółowych badaniach Hawking przyznał, iż było to z jego strony błędem.

background image

Ciągła kreacja materii

Thomas  Gold opowiadał, jak pewnego wieczoru pod koniec lat czterdziestych  wracał 

wraz z Hermannem Bondim z kina po obejrzeniu filmu Dead of Night [Najgłębsza noc], którego 

tematem były sny zawierające się wewnątrz innych snów, tworząc w ten sposób nieskończony 

ciąg.   W   drodze   do   domu   nagle   przyszło   im   do   głowy,   że   film   ten   mógłby   być   alegorią 

Wszechświata.   Niewykluczone,   że   Wszechświat   nie   miał   początku   i   żadnego   Wielkiego 

Wybuchu   nigdy   nie   było.   Być   może   istnieje   jakiś   mechanizm   nieustannego   odradzania   się 

Wszechświata, tak że jest on w stanie istnieć wiecznie.

W ciągu następnych miesięcy Bondi i Gold przyoblekli swój pomysł w kształt konkretnej 

hipotezy naukowej. Jej zasadniczym założeniem było to, iż Wszechświat nie miał jednorazowego 

początku w rodzaju Wielkiego Wybuchu, w którym powstała cała zawarta w nim materia, lecz w 

miarę  rozszerzania   się  Wszechświata  rodzą   się  w   nim  nowe  cząstki,  wskutek  czego  średnia 

gęstość   materii   nie   ulega   zmianie.   Każda   z   galaktyk   przechodziłaby   swój   cykl   ewolucyjny, 

„umierając” po wypaleniu się gwiazd wchodzących w jej skład, lecz z nowo stworzonej materii 

powstawałyby   następne   galaktyki.   W   danym   momencie   można   by   obserwować   galaktyki   w 

różnym wieku, z tym że najstarsze z nich byłyby rozmieszczone z najmniejszą gęstością, gdyż 

Wszechświat   zdążył   się   już   znacznie   rozszerzyć   od   czasu   ich   powstania.   Bondi   i   Gold 

utrzymywali, że Wszechświat rozszerza się z niezmienną szybkością, a tempo kreacji materii jest 

takie, iż zapewnia zachowanie jego gęstości średniej. Jest to tak, jak w przypadku rzeki, która 

wygląda stale tak samo, mimo iż woda, którą widzimy, jest za każdym razem inna. Rzeka nie jest 

tworem statycznym, lecz stacjonarnym. Dlatego hipoteza Bondiego i Golda stała się znana jako 

model „stanu stacjonarnego” Wszechświata.

W modelu stanu stacjonarnego Wszechświat nie ma ani początku, ani końca i wygląda 

średnio stale tak samo, pomimo iż nieustannie się rozszerza. Model ten unika problemu śmierci 

cieplnej, gdyż kreacja nowej materii stanowi jednocześnie zastrzyk ujemnej entropii; powracając 

do analogii z zegarkiem - w tym przypadku zegarek jest nakręcany przez cały czas. Bondi i Gold 

nie podali żadnego konkretnego sposobu, w jaki miałaby być stwarzana materia; problem ten 

został   natomiast   podjęty   przez   współpracującego   z   nimi   Freda   Hoyle'a.   Hoyle   wprowadził 

pojęcie „pola kreacyjnego”, które posiadałoby zdolność wytwarzania nowych cząstek materii. 

Ponieważ   materia   jest   pewną   formą   energii,   można   by  sądzić,   że   mechanizm   podany   przez 

background image

Hoyle'a   stanowi  naruszenie  prawa  zachowania   energii,  ale   niekoniecznie  musi  tak  być.   Pole 

kreacyjne niosłoby ze sobą energię ujemną i przy starannym doborze parametrów można uzyskać 

sytuację, że dodatnia energia wytworzonej materii odpowiadałaby dokładnie wzrostowi ujemnej 

energii   pola   kreacyjnego.   Po   przeprowadzeniu   dokładnych   matematycznych   wyliczeń   Hoyle 

odkrył,   że   jego   model   kosmologiczny   zawierający   pole   kreacyjne   sam   z   siebie   dąży   do 

osiągnięcia stanu stacjonarnego przewidzianego przez teorię Bondiego i Golda, a następnie w 

tym stanie pozostaje.

Prace Hoyle'a dostarczyły podbudowy teoretycznej niezbędnej do tego, aby teoria stanu 

stacjonarnego   była   traktowana   poważnie;   przez   ponad   dziesięć   lat   była   ona   uznawana   za 

równorzędną teorię konkurującą z teorią Wielkiego Wybuchu. Wielu naukowców, w tym sami 

twórcy teorii stanu stacjonarnego, uważało, że poprzez pozbycie się Wielkiego Wybuchu raz na 

zawsze   usunięta   została   potrzeba   doszukiwania   się   jakichś   nadnaturalnych   przyczyn 

Wszechświata.   Świat,   który   nie   ma   początku,   nie   potrzebuje   ani   stworzenia,   ani   Stwórcy,   a 

wskutek tego, iż się sam „nakręca” za pośrednictwem pola kreacyjnego czysto fizycznej natury, 

nie wymaga żadnych boskich interwencji, by utrzymać go w istnieniu.

W istocie konkluzja ta jest całkowicie nieuprawniona. Fakt, że Wszechświat nie miał 

początku w czasie, w żadnej mierze nie uzasadnia, dlaczego on istnieje, i to w tej właśnie postaci. 

Nie wyjaśnia również, skąd miałyby pochodzić pola (takie jak pole kreacji) i prawa fizyki, dzięki 

którym możliwe było zaistnienie stanu stacjonarnego. Jak na ironię, niektórzy teologowie byli 

wręcz zachwyceni teorią stanu stacjonarnego, uważając, że dostarczyła ona modus operandi dla 

Boga   w   jego   dziele   stworzenia.   Ostatecznie,   istniejący   wiecznie   Wszechświat,   któremu   nie 

zagraża   śmierć  cieplna,   jest  koncepcją   bardzo  atrakcyjną   dla  teologa.   Na  przełomie  wieków 

angielski matematyk i filozof Alfred North Whitehead sformułował tak zwaną teologię procesu. 

Zwolennicy   tego   kierunku   odrzucali   zakorzenioną   w   tradycji   chrześcijańskiej   koncepcję 

stworzenia z nicości na rzecz Wszechświata, który nie miał w ogóle początku. Działanie Boga 

jako Stwórcy ma w tym przypadku charakter nieustającego procesu, stwórczej interwencji w bieg 

przyrody. Do tematu kosmologii kreacyjnej powrócę jeszcze w rozdziale 7.

Ostatecznie, teoria stanu stacjonarnego popadła w niełaskę nie z racji filozoficznych, lecz 

dlatego,   że   sfalsyfikowały   ją   dane   obserwacyjne.   Z   teorii   tej   wynikała   bardzo   konkretna 

prognoza,   że   Wszechświat   powinien   wyglądać   średnio   tak   samo   we   wszystkich   epokach,   a 

pojawienie się olbrzymich radioteleskopów umożliwiło przetestowanie tego przewidywania. Gdy 

background image

astronomowie obserwują bardzo odległe obiekty, widzą je nie takimi, jakimi są one teraz, lecz 

jakimi   były   w   odległej   przeszłości,   kiedy   to   wyemitowane   z   nich   światło   lub   fale   radiowe 

rozpoczęły swą długą podróż ku Ziemi. Obecnie astronomowie są w stanie badać obiekty odległe 

o miliardy lat świetlnych, więc widzimy je takimi, jakimi były one wiele miliardów lat temu. 

Zatem odpowiednio głęboki przegląd Wszechświata może dostarczyć jego „migawkowych” ujęć 

do celów porównawczych. W połowie lat sześćdziesiątych stało się jasne, że kilka miliardów lat 

temu Wszechświat wyglądał zupełnie odmiennie niż obecnie, w szczególności pod względem 

gęstości rozmieszczenia galaktyk różnych typów.

Ostatnim gwoździem do trumny teorii stanu stacjonarnego było odkrycie w 1965 roku, że 

cały Wszechświat przeniknięty jest promieniowaniem cieplnym odpowiadającym temperaturze 

około trzech stopni powyżej zera absolutnego. Promieniowanie to uważane jest za bezpośrednią 

pozostałość Wielkiego Wybuchu, coś w rodzaju gasnącej poświaty od pierwotnej kuli ognistej, z 

której narodził się Wszechświat. Byłoby niezwykle trudno wytłumaczyć  pochodzenie takiego 

wszechobecnego  promieniowania  w  inny sposób niż  poprzez  to, że Wszechświat  był  kiedyś 

niezwykle gęsty i gorący. Taki stan nie występuje w teorii stanu stacjonarnego. Oczywiście, fakt, 

że Wszechświat nie znajduje się w stanie stacjonarnym, nie oznacza, iż ciągła kreaqa materii jest 

czymś niemożliwym, jednakże motywy, jakie skłoniły Hoyle'a do wprowadzenia pojęcia pola 

kreacji,   zostały   w   znacznej   mierze   podważone,   skoro   okazało   się,   że   Wszechświat   jednak 

podlega   ewolucji.   Obecnie   prawie   wszyscy   kosmologowie   są   zgodni,   że   żyjemy   we 

Wszechświecie,   który   miał   początek   w   postaci   Wielkiego   Wybuchu   i   który   zmierza   do 

nieznanego końca.

Gdy   zaakceptuje   się  idee,   że   przestrzeń,   czas   i   materia   miały   swój   początek   w 

osobliwości, stanowiącej absolutną granicę fizycznego Wszechświata w przeszłości, pojawia się 

szereg zagadek. Po pierwsze, mamy znany problem, co spowodowało Wielki Wybuch. Jednakże 

pytanie to musi być teraz widziane w nowym świetle, ponieważ nie jest możliwe powiązanie 

Wielkiego   Wybuchu   z   czymś,   co   wydarzyło   się   przed   nim,   jak   zwykle   w   przypadku,   gdy 

mówimy o powiązaniach przyczynowo-skutkowych. Czy oznacza to, że Wielki Wybuch miałby 

być   zdarzeniem,   które   nie   miało   przyczyny?   Jeżeli   prawa   fizyki   przestają   obowiązywać   w 

osobliwości, nie mogą one służyć jako podstawa wyjaśniania w tym przypadku. Zatem, jeżeli 

chcemy   jednak   doszukiwać   się   przyczyny   Wielkiego   Wybuchu,   musi   mieć   ona   charakter 

pozafizyczny.

background image

Czy Bóg był przyczyną Wielkiego Wybuchu?

Wielu ludzi wyobraża sobie Boga jako kogoś w rodzaju pirotechnika, który po zapaleniu 

kosmicznego lontu, rozsiada się wygodnie, by oglądać fajerwerki Wielkiego Wybuchu. Niestety, 

ten prosty obraz, tak bardzo do niektórych przemawiający, jest zupełnie pozbawiony sensu. Jak 

widzieliśmy, nadprzyrodzony akt stworzenia nie może być działaniem przyczynowym w czasie, 

gdyż to właśnie zaistnienie samego czasu jest tym, co chcielibyśmy wyjaśnić. Jeżeli Bóg ma 

stanowić uzasadnienie świata fizycznego, nie może to być uzasadnienie w kategoriach przyczyny 

i skutku, do jakich jesteśmy przyzwyczajeni.

Ten powracający nieustannie problem czasu został ostatnio podjęty przez angielskiego 

fizyka Russella Stannarda, który przyrównał Boga do autora książki. Książka po jej napisaniu 

istnieje jako skończona całość, chociaż my, ludzie, czytamy kolejno jej stronice od początku do 

końca.   „Tak   jak   pisarz   nie   ogranicza   się   do   napisania   tylko   pierwszego   rozdziału   powieści, 

pozwalając,   aby   reszta   została   dopisana   przez   kogoś   innego,   tak   moc   stwórcza   Boga   nie 

wyczerpuje   się   w   Wielkim   Wybuchu   ani   nawet   nie   jest   jakoś   szczególnie   na   to   zdarzenie 

ukierunkowana. Przeciwnie, należy przyjmować, iż mocą tą przeniknięta jest cała przestrzeń i 

cały czas: stwarzanie staje się tym samym, co utrzymywanie w istnieniu.”

Niezależnie   od   problematyki   początku   czasu,   odwoływanie   się   do   Boga   w   celu 

wyjaśnienia   Wielkiego   Wybuchu   związane   jest   z   niektórymi   innymi   trudnościami.   Aby   je 

zilustrować, posłużę się wyimaginowaną rozmową między teistą (czy też należałoby właściwie 

powiedzieć deistą) - zwolennikiem tezy, że świat został stworzony przez Boga, a ateistą, który 

„nie widzi potrzeby takiej hipotezy”.

Ateista:   W   dawnych   czasach   bóstwa   służyły   do   objaśnienia   najróżniejszych   zjawisk 

świata fizycznego, takich jak wiatr, deszcz i ruchy planet. W miarę postępu nauki powoływanie 

się   na   takie   nadprzyrodzone   czynniki   dla   wyjaśnienia   zjawisk   przyrody   uznano   za   zbędne. 

Dlaczego zatem upierasz się, że Bóg miałby być przyczyną Wielkiego Wybuchu?

Teistą: To twoja nauka nie jest w stanie wyjaśnić wszystkiego. Świat jest pełen tajemnic. 

Na przykład, nawet najwięksi optymiści wśród biologów przyznają, że powstanie życia pozostaje 

ciągle wielką zagadką.

Ateista: Zgadzam się, że nauka nie wyjaśniła dotąd wszystkiego, ale nie wynika stąd 

bynajmniej, iż nie potrafi tego uczynić. Wy, teiści, zawsze ulegaliście pokusie, by wskazywać na 

background image

jakieś zjawisko, którego nauka nie mogła w danym momencie wyjaśnić, twierdząc, że dla jego 

uzasadnienia niezbędny jest Bóg. Następnie, po nowych odkryciach nauki, Bóg okazywał się do 

tego   uzasadnienia   niepotrzebny.   Powinniście   się   już   nauczyć,   że   koncepcja   Boga   jako 

„wypełniacza luk” nie da się dłużej utrzymać. W miarę upływu czasu coraz mniejsza jest liczba 

luk   naszej   wiedzy,   w   których   mógłby   się   on   ostać.   Mnie   osobiście   nie   sprawia   trudności 

przypuszczenie,   że   nauka   będzie   w   stanie   wyjaśnić   wszystkie   zjawiska   przyrody,   w   tym 

powstanie  życia.   Przyznaję,  że  początek  Wszechświata   to  trudny  orzech  do zgryzienia.   Jeśli 

jednak, jak na to wygląda, zaszliśmy już tak daleko, iż jedynym nie wyjaśnionym elementem 

pozostaje sam Wielki Wybuch, byłoby czymś dalece nieprzystojnym wprowadzanie tu pojęcia 

Istoty   Nadprzyrodzonej   tylko   dlatego,   że   została   ona   wyeliminowana   ze   wszystkich   innych 

zjawisk i miałaby to być jej „ostatnia szansa”.

Teistą: Nie widzę, dlaczego by tak miało być. Nawet jeżeli odrzuca się ideę, że Bóg 

działa bezpośrednio w świecie fizycznym po jego stworzeniu, problem ostatecznego początku 

tego  świata  należy do zupełnie  innej  kategorii  niż  problem  wyjaśnienia  zjawisk przyrody  w 

istniejącym już świecie.

Ateista: Lecz jeżeli nie posiada się innych powodów, dla których mielibyśmy wierzyć w 

istnienie Boga, stwierdzenie po prostu, że „Bóg stworzył świat”, ma charakter całkowicie adhoc; 

nie wyjaśnia ono niczego. W istocie, taka wypowiedź jest zasadniczo pozbawiona jakiejkolwiek 

głębszej treści, gdyż sprowadza się do definiowania Boga jako czynnika sprawczego dla świata. 

Ten wybieg nie posuwa naprzód naszego poznania nawet w najmniejszym stopniu. Po prostu 

jedna zagadka (powstanie Wszechświata) zostaje wyjaśniona za pomocą innej zagadki (Bóg). 

Jako naukowiec mam prawo zastosować tu brzytwę Ockhama i odrzucić hipotezę Boga jako 

niepotrzebne   komplikowanie   sprawy.   W   przeciwnym   przypadku   zmuszony   byłbym   postawić 

pytanie: kto stworzył Boga?

Teista: Bóg nie potrzebuje innego stwórcy. Jest on bytem koniecznym i po prostu musi 

istnieć. Nie ma tu innej możliwości.

Ateista: Ale można równie dobrze utrzymywać, że Wszechświat nie wymaga stwórcy. 

Jakimikolwiek argumentami będziemy uzasadniali, iż istnienie Boga jest konieczne, mogą być 

one z równą słusznością zastosowane do Wszechświata; w ten sposób co najmniej uprościmy 

nasze rozważania.

Teista:   Z   pewnością   jednak   naukowcy   powszechnie   stosują   mój   tryb   rozumowania. 

background image

Dlaczego ciała spadają? Ponieważ poddane są działaniu siły ciężkości. Dlaczego działa na nie 

siła ciężkości? Ponieważ znajdują się w polu grawitacyjnym. Skąd się bierze pole grawitacyjne? 

Ponieważ przestrzeń jest zakrzywiona. I tak dalej. Jeden opis zastępuje się innym,  głębszym 

opisem, wyłącznie w celu wyjaśnienia tego, od czego zaczęliśmy, mianowicie zjawiska spadania 

ciał.   Dlaczego   zatem   oponujesz,   gdy   odwołuję   się   do   Boga   jako   głębszego   i   bardziej 

zadowalającego uzasadnienia Wszechświata?

Ateista: Ależ to jest coś zupełnie innego! Teoria naukowa powinna wnosić coś więcej do 

faktów, które ma wyjaśniać. Dobre teorie upraszczają obraz świata poprzez ukazanie powiązań 

pomiędzy   zjawiskami,   które   poprzednio   uważane   były   za   odmienne.   Na   przykład,   teoria 

grawitacji   Newtona   pokazała   związek   zachodzący   pomiędzy   pływami   morskimi   a   ruchem 

Księżyca. Ponadto dla dobrych teorii można podać testy obserwacyjne, takie jak przewidzenie 

nowych, nie znanych dotąd, zjawisk. Pozwalają one również na szczegółową analizę przebiegu 

interesujących   nas   zjawisk   fizycznych   w   kategoriach   danej   teorii.   W   przypadku   grawitacji 

umożliwiają   to   równania   opisujące   związek   natężenia   pola   grawitacyjnego   ze   strukturą   jego 

źródeł.   W   teorii   tej   znajdujemy   dokładny   mechanizm   przebiegu   zjawisk   grawitacyjnych. 

Natomiast   koncepcja   Boga   przywoływana   jedynie   dla   wyjaśnienia   Wielkiego   Wybuchu   nie 

spełnia żadnego z tych trzech kryteriów. Nie upraszczając w niczym naszej wizji świata, pojęcie 

Stwórcy stanowi dodatkowy element, sam domagający się uzasadnienia. Po drugie, nie ma żadnej 

możliwości eksperymentalnej weryfikacji tej hipotezy: Bóg w tym przypadku przejawił się tylko 

w jednym jedynym zjawisku - Wielkim Wybuchu - które miało miejsce dawno temu. I w końcu, 

gołe stwierdzenie „Bóg stworzył świat” nie stanowi w istocie żadnego wyjaśnienia, dopóki nie 

towarzyszy jemu dokładny opis, w jaki sposób to nastąpiło. Chciałoby się wiedzieć, na przykład, 

jakie własności możemy  przypisać takiemu Bogu i jak konkretnie stwarzał on Wszechświat, 

dlaczego  Wszechświat   ma   właśnie  taką  postać,  i  tak  dalej.  Krótko  mówiąc,  dopóki  nikt  nie 

potrafi ani podać innych przejawów istnienia takiego Boga, ani dokładnego opisu, w jaki sposób 

stworzył   on   świat,   który   nawet   taki   ateista   jak   ja   uznałby   za   głębszy,   prostszy   i   bardziej 

zadowalający, nie widzę żadnych powodów, które uzasadniałyby wiarę w taką istotę.

Teista: Mimo to twoje stanowisko również trudno uznać za w pełni zadowalające, gdyż, 

jak sam przyznajesz, uzasadnienie Wielkiego Wybuchu wykracza poza ramy nauki. Zmuszony 

jesteś   przyjmować   istnienie   Wszechświata   jako   fakt   pozbawiony   jakiegokolwiek   głębszego 

uzasadnienia.

background image

Ateista: Wolę już przyjmować jako fakt istnienie świata niż istnienie Boga. W końcu, 

abyśmy mogli o nim dyskutować, świat musi istnieć!

Wieloma z kwestii, jakie wystąpiły w tym dialogu, zajmę się w następnych rozdziałach. 

Istota sporu sprowadza się do tego, czy to, że Wszechświat powstał w wyniku wybuchu, jak 

wszystko na to wskazuje, musimy przyjąć jako niezależny,  nie dający się uzasadnić, fakt na 

zasadzie   „tak-to-już-jest”,   czy   też   możemy   poszukiwać   jakiegoś   bardziej   zadowalającego 

uzasadnienia. Do niedawna wydawało się, że każde takie uzasadnienie musiałoby odwoływać się 

do czynników nadprzyrodzonych, wykraczających poza prawa fizyki, lecz najnowsze postępy 

naszej   wiedzy   o   bardzo   wczesnym   Wszechświecie   dokonały   przełomu   w   tej   całej   dyskusji, 

ukazując tę odwieczną zagadkę w zupełnie nowym świetle.

background image

Stworzenie bez stworzenia

Od   upadku   teorii   stanu   stacjonarnego   wydawało   się,   iż   w   kwestii   początków 

Wszechświata uczeni nie mają wielkiego wyboru. Można było albo wierzyć, że Wszechświat 

istniał   zawsze,   stawiając   czoła   wszystkim   związanym   z   tym   paradoksom   fizycznym,   albo 

zakładać, że czas i przestrzeń zaczęły się gwałtownie, lecz nie można tego wyjaśnić w sposób 

naukowy. Przeoczono trzecią możliwość: że Wszechświat nie istniał zawsze, a jednak nie zaczął 

się jednorazowo w osobliwości.

Przed przejściem do szczegółów pozwolę sobie zrobić ogólną uwagę, że istota całego 

problemu z początkiem Wszechświata leży w tym, iż Wielki Wybuch miałby być zdarzeniem nie 

mającym przyczyny na płaszczyźnie fizycznej. Na ogół uważa się, że stoi to w sprzeczności z 

prawami fizyki. Istnieje tu jednak pewna furtka. Jest nią mechanika kwantowa. Jak wyjaśniałem 

w   rozdziale   l,   za   obszar   stosowania   mechaniki   kwantowej   przyjmuje   się   zazwyczaj   atomy, 

cząsteczki   i   cząstki   elementarne.   Dla   obiektów   makroskopowych   efekty   kwantowe   są   w 

normalnych   warunkach   zaniedbywalnie   małe.   Proszę   sobie   przypomnieć,   że   istotę   fizyki 

kwantowej stanowi zasada nieoznaczoności Heisenberga, stwierdzająca, iż wartości wszystkich 

wielkości   mierzalnych   (takich   jak   położenie,   pęd,   energia)   podlegają   nieprzewidywalnym 

fluktuacjom. Na skutek owej nieprzewidywalności mikroświat ma charakter indeterministyczny; 

aby posłużyć się obrazową metaforą Einsteina: Pan Bóg gra z Wszechświatem w kości. Dlatego 

na   poziomie   kwantowym   zdarzenia   nie   są   wyznaczone   w   sposób   bezwzględny   przez 

poprzedzające je przyczyny. Jakkolwiek prawdopodobieństwo jakiegoś zdarzenia (np. rozpadu 

promieniotwórczego jądra atomu) można ustalić na podstawie teorii, rzeczywisty wynik danego 

procesu kwantowego jest nie tylko nieznany, ale i z zasady niepoznawalny.

Wskutek rozmycia więzi między przyczyną a skutkiem mechanika kwantowa pozwala w 

przemyślny   sposób   obejść   problem   zaistnienia   Wszechświata.   Gdyby   udało   się   wykazać,   że 

Wszechświat wyłonił się z nicości w wyniku fluktuacji kwantowej, to żadne prawa fizyki nie 

byłyby   pogwałcone.   Innymi   słowy,   z   punktu   widzenia   mechaniki   kwantowej   spontaniczne 

powstanie Wszechświata nie jest niczym szczególnym, jako że na poziomie mikroświata obiekty 

fizyczne powstają same z siebie bez wyróżnionej przyczyny przez cały czas. Fizyk kwantowy nie 

ma większej potrzeby odwoływania się do sił nadprzyrodzonych w przypadku powstania świata 

niż   w   przypadku   uzasadniania,   dlaczego   rozpad   danego   jądra   promieniotwórczego   nastąpił 

background image

właśnie w określonym momencie.

Wszystko to zależy naturalnie od prawomocności stosowania mechaniki kwantowej do 

Wszechświata   jako   całości.   Nie   jest   to   wcale   takie   oczywiste.   Nie   mówiąc   już   o   tym,   że 

stosowanie   teorii   opisującej   świat   cząstek   elementarnych   do   całego   kosmosu   wymaga 

niewiarygodnej ekstrapolacji, pojawiają się w tym przypadku głębokie pytania natury zasadniczej 

co do treści, jaką należałoby przypisać niektórym obiektom matematycznym występującym w 

teorii. Jednak zdaniem wielu znakomitych fizyków teoria kwantów może być z powodzeniem 

stosowana w tej sytuacji - i w ten sposób narodziła się nowa dyscyplina, kosmologia kwantowa.

Uzasadnieniem dla kosmologii kwantowej jest fakt, że o ile Wielki Wybuch traktować 

poważnie,  musiał  istnieć  moment,  kiedy promień  całego Wszechświata  był  rzędu rozmiarów 

subatomowych,   a   zatem   procesy   kwantowe   musiały   w   nim   odgrywać   dominującą   rolę.   W 

szczególności na strukturę i ewolucję bardzo wczesnego Wszechświata musiały mieć głęboki 

wpływ   fluktuacje   związane   z   zasadą   nieoznaczoności   Heisenberga.   Kiedy   ta   epoka   miała 

miejsce, wynika z prostego obliczenia. Efekty kwantowe były znaczące,  gdy gęstość materii 

sięgała zawrotnej wartości 10

94

  g cm

3

; było to wtedy,  gdy Wszechświat miał mniej niż 10

43 

sekundy i zaledwie 10

33

  cm średnicy. Wartości te nazywa się odpowiednio gęstością, czasem i 

promieniem Plancka, na cześć Maxa Plancka, pioniera teorii kwantów.

Zdolność   fluktuacji   kwantowych   do   „rozmywania”   rzeczywistości   fizycznej   w   skali 

mikroświata   prowadzi   do   fascynującego   wniosku   dotyczącego   natury   czasoprzestrzeni.   W 

laboratorium fizycy mogą obserwować fluktuacje kwantowe nie mniejsze niż 10

18

  cm w skali 

czasu około 10

28

 sekundy. Fluktuacje te, którym podlegają takie parametry jak położenia i pędy 

cząstek, rozgrywają się na tle w miarę ustabilizowanej czasoprzestrzeni. Jednakże w skali jeszcze 

mniejszej, rzędu wielkości Plancka, fluktuacjom podlega również sama czasoprzestrzeń.

Aby zrozumieć,  w jaki sposób się to odbywa,  trzeba  wpierw  przyjrzeć  się bliskiemu 

sprzężeniu  przestrzeni  i czasu. Teoria  względności  wymaga,  byśmy  traktowali  trzy wymiary 

przestrzenne   i   jeden   wymiar   czasowy   jako   atrybuty   jednolitej   czterowymiarowej 

czasoprzestrzeni. Pomimo tej unifikacji przestrzeń pozostaje pod względem fizycznym  czymś 

odrębnym   od   czasu.   W   życiu   codziennym   odróżnienie   ich   nie   przedstawia   dla   nas   żadnych 

trudności. Różnica ta ulega jednak zatarciu w przypadku fluktuacji kwantowych. W skali Plancka 

rozróżnienie na czas i przestrzeń zaciera się. Teoria kwantowa opisuje dokładnie, w jaki sposób 

się   to   odbywa,   i   pozwala   na   wyliczenie   względnych   wartości   prawdopodobieństwa 

background image

poszczególnych wariantów struktur czasoprzestrzennych.

Może się więc w pewnych warunkach zdarzyć, że w wyniku tych efektów kwantowych 

najbardziej   prawdopodobna   okaże   się   struktura   składająca   się   z   czterech   wymiarów 

przestrzennych. James Hartle i Stephen Hawking przedstawili rozumowanie, z którego wynikało, 

iż takie właśnie warunki miały miejsce w bardzo wczesnym Wszechświecie. Oznacza to, że jeżeli 

wyobrazimy   sobie,   iż   posuwamy   się   w   czasie   wstecz   ku   Wielkiemu   Wybuchowi,   to   gdy 

osiągniemy moment odległy o około jeden czas Plancka od tego, co uważaliśmy za osobliwość 

początkową,   dzieje   się   coś   dziwnego:   czas   zaczyna  „przeobrażać   się”   w   przestrzeń.   Zatem 

zamiast z początkiem czasoprzestrzeni mamy teraz do czynienia z czterowymiarową przestrzenią 

i możemy postawić pytanie o kształt tej przestrzeni, tj. jej geometrię. W rzeczywistości teoria 

dopuszcza tu nieskończenie wiele możliwych  geometrii. Odpowiedź na pytanie, która z nich 

odnosi   się   do   rzeczywistego   świata,   zależy   od   rozwiązania   problemu   doboru   właściwych 

warunków   początkowych,   czemu   poświęcę   nieco   uwagi   w   dalszej   części   książki.   Hartle   i 

Hawking dokonują tu konkretnego wyboru, który uważają za naturalny ze względu na elegancję 

matematyczną.

W zrozumieniu ich idei pomocne może być przedstawienie ich w postaci schematycznego 

rysunku.   Jednakże   powinieniem   tu   przestrzec   czytelnika,   aby   nie   nadawał   tym   rysunkom 

znaczenia   nazbyt   dosłownego.   Zacznijmy   od   przedstawienia   czasoprzestrzeni   jako 

dwuwymiarowego   diagramu,   na   którym   oś   czasu   skierowana   jest   pionowo,   a   oś   przestrzeni 

poziomo. Przyszłość znajduje się u góry diagramu, przeszłość u dołu. Ponieważ niemożliwe jest 

właściwe odzwierciedlenie czterech wymiarów na płaskiej stronicy książki, pozostawiłem tylko 

jeden   wymiar   przestrzenny,   co   jednak   wystarcza   dla   zilustrowania   wszystkich   zasadniczych 

rozważań. Przekrój poziomy przez diagram odpowiada całej przestrzeni w jednym momencie 

czasu, a linia pionowa przedstawia historię pewnego punktu przestrzeni w czasie. Korzystne 

może   być   wyobrażenie   sobie,   że   rysunek   ten   znajduje   się   na   luźnej   kartce   papieru,   z   którą 

możemy   przeprowadzać   pewne   czynności.   (Być   może   nawet   czytelnik   zechce   je   naprawdę 

wykonać).

Gdyby   przestrzeń   i   czas   były   nieskończone,   to   ściśle   rzecz   biorąc,   dla   właściwego 

przedstawienia   czasoprzestrzeni   potrzebna   by   była   nieskończona   płaszczyzna   papieru.   Jeśli 

jednak czas nie rozciąga się nieskończenie w przeszłość, diagram musi być od dołu ograniczony; 

można sobie wyobrazić, że odcięliśmy w pewnym miejscu jego dolną część, tworząc poziomy 

background image

brzeg. Czas może być także ograniczony w przyszłości, co odpowiada zrobieniu takiego samego 

brzegu w górnej części. W ten sposób otrzymaliśmy nieskończony pasek papieru reprezentujący 

całą nieskończoną przestrzeń w kolejnych momentach czasu od początku (brzeg dolny) do końca 

(brzeg górny) świata.

W tym miejscu można rozważyć możliwość, że przestrzeń nie jest jednak nieskończona. 

Einstein   jako   pierwszy   wskazał   na   możliwość,   że   przestrzeń   jest   skończona,   choć 

nieograniczona. Do idei tej należy podchodzić poważnie i stanowi ona możliwą do obserwacyjnej 

weryfikacji hipotezę  kosmologiczną.  Taką możliwość  możemy łatwo przedstawić  na naszym 

diagramie poprzez zwinięcie arkusza papieru tak, aby utworzył on walec. Przestrzeń w każdym 

momencie   czasu   jest   wtedy   reprezentowana   przez   okrąg   o   skończonym   obwodzie 

(Dwuwymiarowym   odpowiednikiem   jest   w   tym   przypadku   powierzchnia   sfery;   w   trzech 

wymiarach jest to tak zwana hipersfera, którą trudno sobie naocznie przedstawić, ale która pod 

względem matematycznym jest obiektem dobrze określonym i zrozumiałym).

Następnym krokiem jest uwzględnienie ekspansji Wszechświata poprzez pozwolenie, aby 

rozmiar Wszechświata zmieniał się w czasie. Ponieważ zajmujemy się tutaj przede wszystkim 

początkiem Wszechświata, pominę część górną diagramu i pokażę jedynie część dolną. Cylinder 

przybiera   teraz   kształt   stożka.   Kolejne   przekroje,   będące   coraz   większymi   okręgami, 

przedstawiają   rozszerzającą   się   przestrzeń.   Hipoteza,   że   Wszechświat   zaczął   się   stanem 

osobliwym o nieskończonej gęstości, odpowiada temu, iż stożek zbiega się u dołu w jeden punkt. 

Pojedynczy   wierzchołek   stożka   przedstawia   gwałtowne   powstanie   zarówno   czasu,   jak   i 

przestrzeni w Wielkim Wybuchu.

Podstawową  tezą   kosmologii   kwantowej   jest,   że   zasada   nieoznaczoności   Heisenberga 

powoduje „stępienie” ostrego wierzchołka stożka i zastąpienie go zakończeniem obłym.  Jego 

konkretny   kształt   zależy   od   przyjmowanego   modelu   teoretycznego;   w   modelu   Hartle'a   i 

Hawkinga możemy  sobie  mniej  więcej  wyobrażać,  że wierzchołek  uległ  zaokrągleniu,  gdzie 

wierzchołek stożka został zastąpiony półkulą. Promień tej półkuli równy jest długości Plancka 

(10

33

  cm),   co   jest   wartością   niezmiernie   małą   podług   ludzkich   standardów,   jednakże 

nieskończenie wielką w porównaniu z osobliwością punktową. Ponad początkową półkulą stożek 

rozwiera się jak poprzednio, co odpowiada standardowej niekwantowej ewolucji rozszerzającego 

się Wszechświata. W tej górnej części czas biegnie pionowo jak zwykle i jest pod względem 

fizycznym  czymś  całkowicie  odrębnym  od przestrzeni,  która rozpościera  się poziomo  wokół 

background image

obwodu stożka. Natomiast poniżej przejścia w sferę sytuacja całkowicie się zmienia. Wymiar 

czasowy zaczyna odkształcać się w kierunku wymiaru przestrzennego (tzn. poziomo). W ten 

sposób u dołu, w pobliżu podstawy półkuli mamy dwuwymiarową, w przybliżeniu poziomą, 

zakrzywioną   powierzchnię,   której   oba   wymiary   są   przestrzenne,   w   miejsce   jednego 

przestrzennego i jednego czasowego. Proszę zauważyć, że przejście wymiaru przestrzennego w 

czasowy ma charakter stopniowy; nie należy sobie wyobrażać, że następuje ono gwałtownie przy 

przejściu ze stożka na półkulę. Ujmując to w inny sposób, można powiedzieć, że czas wyłania się 

stopniowo z przestrzeni, w miarę jak powierzchnia półkuli przechodzi w powierzchnię stożka. 

Należy również zwrócić uwagę, że w tym przypadku czas jest nadal ograniczony od dołu - nie 

rozciąga się wstecz do nieskończoności - a jednak nie istnieje w istocie jego „pierwszy moment”, 

nie ma tu gwałtownego początku w osobliwości. Zatem osobliwość została faktycznie usunięta.

Można być  skłonnym uważać najniższy punkt półkuli - jej „biegun południowy” - za 

„początek”   Wszechświata,   lecz,   jak   podkreśla   Hawking,   jest   to   pogląd   błędny.   Podstawową 

własnością   charakteryzującą   powierzchnię   sferyczną   jest   to,   że   wszystkie   jej   punkty   są 

równoważne,   to   znaczy   żaden   punkt   nie   jest   w   żaden   sposób   wyróżniony.   Najniższy   punkt 

półkuli wydaje nam się wyróżniony, ponieważ tak ustawiliśmy stożkowatą powierzchnię. Gdy 

odchylimy stożek, inny punkt stanie się punktem najniższym. Hawking zauważa, iż mamy tu do 

czynienia z sytuacją analogiczną do sposobu, w jaki geometrycznie przedstawiamy powierzchnie 

kuli ziemskiej. Południki zbiegają się na Biegunie Północnym i Południowym, lecz powierzchnia 

Ziemi w tych miejscach niczym się nie wyróżnia. Jako punkt zbiegania się południków można by 

równie dobrze wybrać Mekkę lub Hongkong. (W rzeczy samej wybór biegunów wiąże się z 

położeniem osi rotacji Ziemi, ale nie ma to znaczenia z punktu widzenia tej dyskusji). Nikt nie 

twierdzi wszakże, iż powierzchnia Ziemi zaczyna się gwałtownie na biegunach. Są to wprawdzie 

punkty osobliwe systemu współrzędnych opartego na południkach i równoleżnikach, ale nie są 

one wyróżnione realnie pod względem geometrycznym.

Aby   to   lepiej   wyjaśnić,   wyobraźmy   sobie,   że   w   „biegunie   południowym”   półkuli 

zrobiliśmy  małą  dziurkę,  następnie  rozciągamy  obszar wokół dziurki  (zakładamy,  że  jest on 

elastyczny), aby utworzyć walec, który rozcinamy i rozkładamy na płasko. Konkluzja jest taka, iż 

to, co poprzednio braliśmy za początek czasu w osobliwości (dolny brzeg), jest w rzeczywistości 

jedynie punktem osobliwym systemu współrzędnych nieskończenie rozciągniętym. Dokładnie to 

samo   zachodzi   dla   map   powierzchni   Ziemi   w   rzucie   Mercatora.   Biegun   Południowy,   który 

background image

naprawdę jest normalnym punktem na powierzchni kuli ziemskiej, staje się poziomym brzegiem, 

jak   gdyby   powierzchnia   Ziemi   tam   się   kończyła.   Jednak   brzeg   ten   jest   tworem   sztucznym, 

wynikającym   z   przyjętego   sposobu   odwzorowania   powierzchni   sferycznej   na   płaszczyźnie. 

Możemy równie dobrze przerysować mapę Ziemi w innym układzie współrzędnych, w którym 

południki   będą   się   zbiegały   w   innym   punkcie,   a   Biegun   Południowy   będzie   punktem   jak 

wszystkie inne, tak jak w rzeczywistości.

W   rezultacie   tych   wszystkich   rozważań   dochodzimy   do   wniosku,   za   Hartle'em   i 

Hawkingiem, że Wszechświat nie miał początku. W żadnym przypadku nie oznacza to jednak, iż 

Wszechświat miałby istnieć od zawsze. Czas jest skończony w przeszłości, lecz nie ma punktu 

początkowego. W ten sposób paradoksalna opozycja nieskończonego i skończonego czasu, która 

przez stulecia nie dawała spokoju filozofom, znajduje eleganckie rozstrzygnięcie. Hartle'emu i 

Hawkingowi   udało   się   w   przemyślny   sposób   przepłynąć   między   Scyllą   a   Charybdą   tego, 

zdawałoby się nierozwiązywalnego, dylematu. Jak ujął to Hawking: „Warunkiem brzegowym dla 

Wszechświata jest brak brzegów”.

Implikacje modelu Hartle'a-Hawkinga dla teologii są daleko idące. Sam Hawking wyraził 

się w tej kwestii: „Dopóki zakładamy, że Wszechświat miał początek, możemy przypuszczać, że 

istnieje   jego   Stwórca.   Natomiast   jeśli   Wszechświat   jest   w   pełni   samowystarczalny,   nie   ma 

żadnych granic ani brzegów, to nie ma również początku ani końca: po prostu jest. Gdzież tu 

zatem miejsce dla Stwórcy?”

 

Argumentacja jest zatem taka, że skoro Wszechświat nie zaczął się 

w   określonym,   osobliwym   momencie   w   przeszłości,   nie   ma   potrzeby   odwoływać   się   do 

nadprzyrodzonego aktu stworzenia, aby powołać go do istnienia. Angielski fizyk Chris Isham, 

który sam jest specjalistą w dziedzinie kosmologii kwantowej, zajął się zbadaniem implikacji 

teorii   Hartle'a-Hawkinga   dla   teologii.   Pisze   on:   „Nie   ulega   wątpliwości,   że,   od   strony 

psychologicznej, istnienie takiego osobliwego punktu początkowego wpływa na zrodzenie idei 

Stwórcy,   który   miałby   wprawić   wszystko   w   ruch”.   Uważa   jednak,   że   nowe   koncepcje 

kosmologiczne   usuwają   potrzebę   przywoływania   Boga-jako-zapełniacza-luk   jako   przyczyny 

Wielkiego Wybuchu: „Wygląda na to, że te nowe teorie doskonale sobie radzą z tą właśnie luką”.

Jakkolwiek u Hawkinga Wszechświat nie miał początku w czasie, prawdą jest w tej teorii 

zarazem, że nie istniał on zawsze. Czy byłoby zatem prawidłowe stwierdzenie, iż Wszechświat 

„sam   się   stworzył”?   Ja   ująłbym   to   raczej   w   ten   sposób,   że   Wszechświat   składający   się   z 

czasoprzestrzeni i materii jest wewnętrznie spójny i samowystarczalny. Do swego istnienia nie 

background image

potrzebuje   niczego   zewnętrznego   wobec   siebie,   w   szczególności   żadnego   „pierwszego 

poruszyciela”.   Czy   ma   to   oznaczać,   że   istnienie   Wszechświata   może   być   „uzasadnione”   w 

sposób naukowy bez wprowadzania pojęcia Boga? Czy Wszechświat może być uznany za układ 

zamknięty,  obejmujący również  rację swego własnego istnienia?  Odpowiedź zależy od tego, 

jakie   znaczenie   nadajemy   słowu   „uzasadniać”.   Jeśli   prawa   fizyki   potraktujemy   jako   dane, 

Wszechświat jest w stanie, że tak powiem, zająć się sam sobą, w tym także swym własnym 

stworzeniem.   Ale   skąd   się   wzięły   prawa   fizyki?   Czy   stajemy   z   kolei   przed   koniecznością 

poszukiwania uzasadnienia dla nich? Problemem tym zajmę się w następnym rozdziale.

Czy te najnowsze odkrycia naukowe są sprzeczne z chrześcijańską doktryną o stworzeniu 

ex nihilo. Jak już wielokrotnie podkreślałem, powołanie świata do istnienia z niczego przez Boga 

nie może być uważane za akt dokonywany w czasie, ponieważ obejmuje on również stworzenie 

samego czasu. We współczesnej doktrynie chrześcijańskiej przez stworzenie  ex nihilo  rozumie 

się stałe podtrzymywanie Wszechświata w istnieniu. Obecnie w naukowej kosmologii także nie 

rozważa się „zaistnienia” czasoprzestrzeni, lecz przyjmuje, że czasoprzestrzeń (lub Wszechświat) 

po prostu jest. 

„W  tej   koncepcji  nie   występuje  żadne   specjalnie   wyróżnione  zdarzenie   początkowe”, 

twierdzi filozof Wim Drees. „A zatem każdy moment świata znajduje się w tej samej relacji do 

Stwórcy. Albo musimy przyjmować jako fakt, że wszystkie momenty po prostu »zawsze były i 

są«, albo uważać je wszystkie w jednakowym stopniu za wynik stwórczej działalności Boga. 

Niewątpliwą zaletą kosmologii kwantowej jest to, że ten aspekt pojęcia stworzenia  ex nihilo, 

który wydawał się najbardziej oderwany od myślenia naukowego, mianowicie »podtrzymywanie 

w istnieniu«, znajduje w tej teorii swe naturalne miejsce”. Jednakże wizerunek Boga wyłaniający 

się z tej teorii jest dość odległy od chrześcijańskiego Boga naszego stulecia. Drees znajduje tu 

bliskie podobieństwo do panteistycznej  wizji Boga, jaką przyjmował żyjący w siedemnastym 

wieku filozof Baruch Spinoza, w której świat fizyczny obdarzony zostaje atrybutami boskimi, 

takimi jak istnienie „wieczne” i „konieczne”.

Można   oczywiście   pytać   dalej:   dlaczego   istnieje   Wszechświat?   Czy   (pozaczasowe) 

istnienie czasoprzestrzeni może być uważane za (nie zachodzącą w czasie) formę „stworzenia”? 

W tym sensie mówienie o stworzeniu „z niczego” nie odnosiłoby się do rozgrywającego się w 

czasie procesu przejścia od nicości do bytu, lecz stanowiłoby sposób unaocznienia, że bardziej 

prawdopodobne jest nieistnienie czegoś niż istnienie. Większość naukowców (bynajmniej nie 

background image

wszyscy, patrz strona 135-136) skłonna byłaby się zgodzić, że istnienie matematycznego modelu 

Wszechświata nie jest tym samym, co faktyczne istnienie tegoż Wszechświata. Koncepcja musi 

zostać   dopiero   urzeczywistniona.   Zatem   mamy   to,   co   Drees   nazywa   „ontologiczną 

przypadłością”. Teoria Hartle'a-Hawkinga jest w miarę zgodna z tym bardziej abstrakcyjnym 

rozumieniem   „stworzenia”,   gdyż   jest   teorią   kwantową.   Istotą   mechaniki   kwantowej,   jak   już 

mówiłem,   jest   brak   pewności:   przewidywanie   w   teorii   kwantów   jest   przewidywaniem 

prawdopodobieństwa zajścia jakiegoś stanu rzeczy. Formalizm matematyczny Hartle'a-Hawkin-

ga   dostarcza   zatem   prawdopodobieństwa   tego,   że   określony   Wszechświat   z   określonym 

rozkładem materii istnieje w danej chwili. Przewidując niezerową wartość prawdopodobieństwa 

dla danego Wszechświata, twierdzimy tym samym, że ma on szansę się urzeczywistnić. W ten 

sposób stworzeniu ex nihilo nadana zostaje konkretna interpretacja jako „realizacji możliwości”.

background image

Wszechświaty-matki i Wszechświaty-dzieci

Przed zakończeniem rozważania problemu początku Wszechświata wspomnę o jednej z 

ostatnich   teorii   kosmologicznych,   w   której   problem   ten   rozwiązywany   jest   w   radykalnie 

odmienny sposób. W mojej książce  God and the New Physics  [Bóg i nowa fizyka] rzuciłem 

myśl,   że   to,   co   uważamy   za   Wszechświat,   mogło   powstać   jako   wytwór   większej   całości,   a 

następnie się od niej oddzielić i stać się niezależnym bytem. Przestrzeń reprezentowana jest tutaj 

jako dwuwymiarowa płaszczyzna. Zgodnie z ogólną teorią względności wyobraźmy sobie, iż 

płaszczyzna   ta   jest   zakrzywiona.   W   szczególności   możemy   sobie   wyobrazić,   że   w   pewnym 

miejscu tej płaszczyzny utworzy się wybrzuszenie, które następnie rośnie, przekształcając się w 

wystającą strukturę połączoną z główną płaszczyzną jedynie wąskim przesmykiem. Może być 

tak, że przesmyk ten staje się coraz węższy i węższy, aż wreszcie przerywa się zupełnie. W ten 

sposób z początkowej wypukłości powstaje całkowicie oderwany „bąbel”. Płaszczyzna „matka” 

zrodziła „dziecko”.

Zdumiewające,   że   są   podstawy,   by   przypuszczać,   iż   coś   takiego   ma   miejsce   w 

rzeczywistym Wszechświecie. Chaotyczne fluktuacje przewidywane przez mechanikę kwantową 

powodują, że w skali mikroświata czasoprzestrzeń obfituje w przeróżne wybrzuszenia, kanaliki i 

pomosty, nieustannie pojawiające się i znikające. Radziecki fizyk Andriej Linde wysunął ideę, że 

w   ten   właśnie   sposób   zapoczątkowany   został   nasz   Wszechświat   jako   niewielki   bąbel 

czasoprzestrzeni,   który  potem   uległ   ogromnemu   rozdęciu   w   procesie   kosmicznej   inflacji,   co 

doprowadziło   do   Wielkiego   Wybuchu.   Podobne   modele   rozwijane   były   także   przez   innych 

badaczy.   Wszechświat-matka,   który   zrodził   nasz   Wszechświat,   niezależnie   podlega 

niewiarygodnie szybkiej inflacji, przez cały czas produkując co sił Wszechświaty niemowlęce. 

Jeśli   ten   opis   jest   prawidłowy,   oznaczałoby   to,   że   „nasz”   Wszechświat   jest   tylko   jednym   z 

nieskończonego zbiorowiska Wszechświatów, jakkolwiek obecnie całkowicie od nich odrębnym. 

Zbiorowisko to jako całość nie ma ani początku, ani końca. W każdym razie posługiwanie się 

słowami   „początek”   i   „koniec”   nie   ma   większego   sensu,   gdyż   nie   istnieje   żaden 

wszechobowiązujący czas, w którym rozgrywałby się proces narodzin nowych Wszechświatów, 

chociaż każdy z tych „bąbli” posiada swój czas wewnętrzny.

Interesujące jest pytanie, czy nasz Wszechświat także może być Wszechświatem-matką i 

rodzić  nowe Wszechświaty.  A  może  jakiemuś  naukowcowi-szaleńcowi udałoby się stworzyć 

background image

swój   własny   Wszechświat   w   laboratorium.   Zagadnienie   to   zostało   rozpatrzone   przez   Alana 

Gutha, autora koncepcji kosmicznej inflacji. Okazuje się, iż jeżeli udałoby się skoncentrować 

olbrzymią ilość energii, faktycznie mogłaby się utworzyć czasoprzestrzenna protuberancja. Na 

pierwszy rzut oka może to rodzić obawy, że grozi nam nowy Wielki Wybuch, ale w istocie 

zdarzenie   takie   wyglądałoby   z   naszego   miejsca   w   czasoprzestrzeni   jako   powstanie   czarnej 

dziury.   Jakkolwiek   przestrzeń   wewnątrz   takiej   protuberancji   mogłaby   podlegać   wybuchowej 

inflacji, my widzielibyśmy jedynie kurczącą się czarną dziurę. W końcu dziura wyparowałaby 

doszczętnie   i   tym   samym   nasz   Wszechświat   odseparowałby   się   od   nowo   powstałego 

Wszechświata-dziecka.

Mimo iż teoria ta niezwykle przemawia do wyobraźni, ciągle należy ona do sfery czystej 

spekulacji.   Powrócę   do  niej   na  krótko  w   rozdziale  8.  Teoria   wszechświatów   niemowlęcych, 

podobnie   jak   teoria   Hartle'a-Hawkinga,   zmyślnie   omija   problemy   związane   z   początkiem 

Wszechświata przez odwołanie się do procesów kwantowych. Warto wyciągnąć stąd wniosek, że 

mechanika kwantowa otwiera drogę do wszechświatów o skończonym okresie trwania, których 

istnienie  nie wymaga  jednak  wprowadzenia  jakiejś  określonej  przyczyny  sprawczej. Nie jest 

potrzebny żaden akt stworzenia.

Wszystkie koncepge fizyczne omówione w tym rozdziale opierały się na założeniu, że 

Wszechświat jako całość podlega pewnym  określonym  prawom fizyki.  Prawa te, na których 

opiera się świat fizyczny, wplecione są w obręb matematyki, a ta z kolei opiera się na solidnych 

podstawach logiki. To przejście od zjawisk fizycznych, poprzez prawa fizyki, do matematyki, a 

ostatecznie   logiki,   otwiera   kuszącą   perspektywę,   że   świat   można   pojąć   stosując   wyłącznie 

logiczne rozumowanie. Czyż  nie mogłoby być  tak, że znaczna część, jeśli wręcz nie całość, 

fizycznego   Wszechświata   istnieje   dlatego,   iż   jest   logicznie   konieczna?   Niektórzy   naukowcy 

faktycznie twierdzili, że tak właśnie jest, że istnieje jeden jedyny logicznie spójny zestaw praw i 

jeden jedyny logicznie spójny Wszechświat. Aby odnieść się do tego daleko idącego twierdzenia, 

musimy zadać sobie pytanie o istotę praw fizyki.

background image

Rozdział trzeci

CZYM SĄ PRAWA PRZYRODY?

W rozdziale 2 pokazałem, że, przy danych prawach fizyki, Wszechświat jest w stanie 

stworzyć sam siebie, czy też, wyrażając się bardziej poprawnie, możliwości, że Wszechświat 

istnieje bez zewnętrznej wobec niego pierwszej przyczyny, nie należy już uważać za sprzeczną z 

prawami   fizyki.   Wniosek   ten   opiera   się   w   szczególności   na   zastosowaniu   reguł   mechaniki 

kwantowej do kosmologii. Gdy dane są prawa, istnienie świata nie jest już samo w sobie niczym 

cudownym. A zatem wygląda to, jak gdyby prawa fizyki stanowiły „podstawę bytową” świata. Z 

pewnością, i tak właśnie uważa większość naukowców, można je uznać za opokę rzeczywistości, 

za wieczne prawdy, na których opiera się ład kosmiczny.

Pojęcie prawa przyrody tak przyjęło się w nauce, że do niedawna niewielu naukowców 

zastanawiało się nad istotą i pochodzeniem tych praw, zadowalając się po prostu przyjęciem ich 

jako „danych”. Obecnie, kiedy fizycy i kosmologowie dokonali znaczących postępów na drodze 

ku znalezieniu tego, co można by uznać za „podstawowe” prawa Wszechświata, wiele ze starych 

pytań pojawiło się na nowo. Dlaczego prawa przyrody mają właśnie taką postać? Czy mogłyby 

one być inne? Skąd się wzięły te prawa? Czy istnieją one niezależnie od świata fizycznego?

background image

Pochodzenie praw

Pojęcie prawa przyrody nie zostało wynalezione przez żadnego filozofa czy uczonego. 

Jakkolwiek przybrało  ono konkretną postać dopiero w erze nowożytnej  nauki, jego początki 

sięgają   w   przeszłość,   do   zarania   dziejów,   i   są   ściśle   związane   z   religią.   Już   nasi   dalecy 

przodkowie musieli dysponować szczątkowym pojęciem przyczyny i skutku. Na przykład, celem 

wykonywania narzędzi zawsze było lepsze wykorzystywanie otaczającego ich świata. Uderżenie 

orzecha kamieniem powoduje jego rozłupanie, a umiejętnie rzucona włócznia podąża tam, gdzie 

się ją wycelowało. Niemniej, chociaż ci pierwotni ludzie uświadamiali sobie pewne regularności 

zachodzące wokół, olbrzymia  większość zjawisk przyrody pozostawała dla nich tajemnicza i 

nieprzewidywalna; w celu ich wyjaśnienia wymyślono szereg bóstw: boga deszczu, boga słońca, 

bóstwa drzew, rzek,  i tak  dalej. W ten  sposób świat przyrody  rządzony był  przez mnóstwo 

niewidzialnych potężnych istot.

Zawsze   niebezpiecznie  jest  sądzić   dawne  kultury  podług  współczesnych  kategorii,   ze 

wszystkimi naszymi  ukrytymi  założeniami i uprzedzeniami. W dobie nauki doszukiwanie się 

mechanistycznych uzasadnień obserwowanych zjawisk jest dla nas zupełnie naturalne: napięta 

cięciwa łuku wprawia w ruch strzałę, siła grawitacji powoduje, że kamień spada na ziemię. Dana 

przyczyna, która zazwyczaj przybiera postać określonej siły, powoduje późniejszy skutek. Lecz 

ludzie w dawnych kulturach generalnie nie podchodzili do świata w ten sposób. W niektórych 

kulturach postrzegano przyrodę jako pole starcia rywalizujących ze sobą sił. Bóstwa czy duchy, 

każde obdarzone odrębnym charakterem, walczyły ze sobą lub zawierały pokój. Inne kultury, 

zwłaszcza   kultury   Wschodu,   widziały   świat   fizyczny   jako   holistyczny   splot   niezależnych 

czynników.

W prawie wszystkich dawnych teoriach kosmologicznych świat przyrównywany był do 

żywego   organizmu.   Przedmiotom   fizycznym   przypisywano   działanie   celowe,   takie   jakie 

obserwowano u zwierząt. Ślady tego myślenia przetrwały do dzisiaj w języku, gdy mówi się, że 

woda „dąży”  do osiągnięcia najniższego poziomu czy też igła kompasu „pokazuje” kierunek 

północny. Koncepcja, że układ fizyczny podąża, jest wewnętrznie ukierunkowany lub pociągany 

ku   jakiemuś   celowi,   znana   jest   jako   „teleologia”.   Grecki   filozof   Arystoteles,   o   którego 

animistycznej   wizji   Wszechświata   wspominałem   w   rozdziale   l,   rozróżniał   cztery   rodzaje 

przyczyn: przyczynę materialną, przyczynę formalną, przyczynę sprawczą i przyczynę celową. 

background image

Podział ten często wyjaśnia się na przykładzie domu. Co jest przyczyną powstania domu? Po 

pierwsze, mamy przyczynę materialną, którą w tym przypadku utożsamiamy z cegłami i innymi 

materiałami użytymi do jego budowy. Następnie mamy przyczynę formalną, to znaczy formę, 

czyli kształt, jaki zostaje nadany tym materiałom. Trzecią jest przyczyna sprawcza, za której 

pośrednictwem materiał przybiera tę formę (w tym przypadku jest to budowniczy). I w końcu jest 

przyczyna celowa, cel, ku któremu podąża dana rzecz. W przypadku domu za cel taki można by 

uznać sporządzony wcześniej plan, którym kieruje się budowniczy podczas budowy.

Nawet dysponując tak rozbudowanym  systemem  przyczyn  Arystoteles  nie doszedł do 

sformułowania pojęcia tego, co dzisiaj nazywamy prawem przyrody. Zajmował się ruchem ciał 

materialnych, ale to, co nazywa się u niego prawami ruchu, stanowi w istocie jedynie jakościowy 

opis   odwołujący   się   do   przyczyn   celowych.   I   tak,   na   przykład,   kamień   spada,   ponieważ 

„naturalnym miejscem” dla ciał ciężkich jest powierzchnia Ziemi, a gazy wznoszą się do góry, 

ponieważ ich naturalne miejsce znajduje się w dziedzinie eterycznej ponad sferą niebios, i tak 

dalej.

Wiele z tych dawnych koncepcji opierało się na założeniu, że własności ciał fizycznych 

są ich wewnętrznymi cechami, nieodłącznie z nimi związanymi. Wielka różnorodność form i 

substancji występujących w przyrodzie stanowiła zatem odzwierciedlenie nieskończonej liczby 

takich   wewnętrznych   własności.   Ten   sposób   patrzenia   na   świat   został   zakwestionowany   w 

wielkich religiach monoteistycznych. W judaizmie Bóg pojmowany był jako Dawca Praw. Bóg, 

odrębny   i   niezależny   od   rzeczy   stworzonych,   nakłada   prawa   na   świat   fizyczny   z   zewnątrz. 

Przyroda  podległa jest określonym  prawom na mocy decyzji  Boga. Można wprawdzie nadal 

doszukiwać się przyczyn zjawisk, lecz związek pomiędzy przyczyną a skutkiem regulowany jest 

przez prawa. John Barrow, który badał historyczne kształtowanie się pojęcia prawa przyrody, 

przeciwstawia panteon bogów występujący w religii starożytnej Grecji jedynemu Bogu-władcy w 

judaizmie: „Kiedy przyjrzymy się bliżej religii starożytnych Greków z jej dość rozbudowanym 

systemem   bogów,   widzimy,   że   nie   występuje   w   niej   pojęcie   wszechmocnego   kosmicznego 

Prawodawcy. Bieg wydarzeń w świecie ustalany jest na drodze negocjacji, wzajemnych oszustw 

czy dyskusji między bogami, a nie poprzez zrządzenie nadprzyrodzonej istoty. Stworzenie ma w 

tym przypadku charakter decyzji kolektywnej, a nie dekretu władcy”

1

.

Pogląd, że prawa nie są immanentną cechą przyrody,  lecz zostały nadane z zewnątrz, 

został ostatecznie przyjęty zarówno przez chrześcijaństwo, jak i przez islam, choć odbyło się to 

background image

nie bez oporów. Barrow przytacza poglądy św. Tomasza z Akwinu, który „uważał wprowadzone 

przez Arystotelesa tendencje wrodzone za własności świata przyrody, którymi Bóg posługuje się 

przy   realizacji   swoich   celów,   nie   naruszając   wszakże   ich   zasadniczej   istoty.   Zgodnie   z   tym 

poglądem,   Bóg   jest   wobec   przyrody   raczej   partnerem   niż   niepodzielnym   władcą”. 

Arystotelesowskie koncepcje tego typu zostały jednak potępione przez biskupa Paryża w 1277 

roku i w późniejszej doktrynie chrześcijańskiej ustąpiły miejsca pojęciu Boga jako Prawodawcy, 

które tak dobrze wyraził Kempthorn w swym napisanym w 1796 roku hymnie:

Chwała Panu! Gdy przemówił, 

Stworzył swym rozkazem świat. 

Dał mu prawa niewzruszone, 

By podążał w słuszny ślad.

Fascynujące  jest  prześledzenie,   jaką   rolę  odegrały  wpływy   różnych  kultur   i  religii   w 

kształtowaniu   się   nowożytnego   pojęcia   prawa   przyrody.   Średniowieczna   Europa,   z 

chrześcijańską   doktryną   prawa   boskiego   przejawiającego   się   w   przyrodzie   i   szeroko 

rozpowszechnioną ideą prawa świeckiego, stanowiła podatny grunt, na którym mogła powstać 

naukowa koncepcja praw przyrody. Możemy się przekonać, że astronomowie, jak Tycho Brahe i 

Johannes   Kepler,   którzy   sformułowali   prawa   ruchu   planet,   sądzili,   iż   badając   regularności 

występujące   w   przyrodzie   odkrywają   racjonalną   strukturę   będącą   elementem   Bożego   planu. 

Stanowisko to zostało podtrzymane  przez francuskiego uczonego-filozofa  Renę Descartesa,  i 

przyjęte przez Izaaka Newtona, którego prawa dotyczące ruchu ciał i powszechnego ciążenia 

zapoczątkowały współczesną erę nauki.

Sam   Newton   wierzył   mocno   w   kosmicznego   Konstruktora   działającego   poprzez 

niezmienne prawa matematyki. Dla Newtona i jego współczesnych Wszechświat stanowił wielki, 

wspaniały   mechanizm   będący   dziełem   Boga.   Nie   było   jednak   jedności   poglądów   co   do 

charakteru działania Boga jako Kosmicznego Matematyka i Inżyniera. Czy jedynie skonstruował 

On mechanizm, nakręcił, a następnie pozostawił własnemu losowi, czy też bierze aktywny udział 

w jego codziennym funkcjonowaniu? Newton uważał, że Wszechświat ratowany jest od rozpadu 

pod wpływem sił grawitacji jedynie za przyczyną nieustannego cudu Boga. Boska ingerencja 

tego typu jest klasycznym przykładem „Boga od wypełniania luk”.

background image

Argumentacja   taka   kryje   liczne   niebezpieczeństwa   i   podatna   jest   na   możliwość,   że 

przyszły rozwój nauki pozwoli zadowalająco wyjaśnić daną lukę w naszej wiedzy o świecie bez 

potrzeby odwoływania się do Boga. I faktycznie stabilność grawitacyjna Wszechświata jest dla 

nas obecnie zupełnie zrozumiała. Zresztą jeszcze za życia Newtona koncepcja nieustannego cudu 

była przedmiotem drwin jego kontynentalnych oponentów. Leibniz naigrawał się:

Pan   Newton   i   jego   zwolennicy   żywią   wyjątkowo   niedorzeczne   mniemanie   o   dziele 

Bożym. Według nich Bóg musi od czasu do czasu nakręcać mechanizm swego zegara, aby nie 

stanął, gdyż nie okazał się wystarczająco przezorny przy stworzeniu, aby obdarzyć go ruchem 

wiecznym. (...) Według mnie, świat wykazuje zawsze tę samą energię i siły żywotne.

Dla   Kartezjusza   i   Leibniza   Bóg   był   praźródłem   i   gwarancją   wszechobejmującej 

racjonalności,   którą   przeniknięty   jest   kosmos.   To   ta   właśnie   racjonalność   otwiera   drzwi   do 

poznania   przyrody   mocą   człowieczego   rozumu,   który   sam   też   jest   dany   od   Boga.   W 

renesansowej Europie uzasadnieniem tego, co obecnie nazywamy metodą naukową, była wiara w 

racjonalnego Boga, stworzony przez którego ład możemy w przyrodzie odkryć na drodze badań 

naukowych.   I,   pomimo   Newtona,   w   skład   tych   przekonań   wchodziło   przeświadczenie,   że 

pochodzące od Boga prawa są niezmienne. „Kultura naukowa, powstała w zachodniej Europie - 

pisze Barrow - której jesteśmy spadkobiercami, przeniknięta była ideą absolutnej niezmienności 

praw   przyrody,   co   miało   stanowić   gwarancję   sensowności   uprawiania   nauki   i   osiągnięcia 

wartościowych wyników”.

Współcześnie naukowcy zadowalają się stwierdzeniem,  że w przyrodzie obserwujemy 

pewne regularności, które zwykliśmy nazywać prawami, nie zadając sobie zazwyczaj pytania o 

pochodzenie   tych   praw.   Jednakże   warto   rozważyć,   czy   rozwój   nauki,   jaki   miał   miejsce   w 

średniowiecznej   i   renesansowej   Europie,   byłby   w   ogóle   możliwy,   gdyby   nie   zachodnia, 

chrześcijańska, teologia. Weźmy na przykład Chiny, mające w owym czasie wysoko rozwiniętą 

kulturę i cywilizację, która dała im szereg technicznych wynalazków, nie znanych jeszcze w 

Europie.   Japońskiemu   uczonemu   Kowa   Seki,   żyjącemu   w   czasach   Newtona,   przypisuje   się 

niezależne   wynalezienie   rachunku   różniczkowego   i   metody   obliczania   liczby  

TC

,  lecz   nie 

zdecydował   się   on   na   ogłoszenie   swych   odkryć.   Joseph   Needham   w   swoim   studium   myśli 

dawnych Chin pisze: „Brakowało przekonania, że kodeks praw przyrody kiedykolwiek odsłoni 

się przed człowiekiem i będzie mógł być przez niego odczytany, ponieważ nie wyobrażano sobie, 

by  jakaś   istota   boska,   nawet   bardziej   racjonalna   od  nas,   mogła   kiedyś   uczynić   taki   kodeks, 

background image

możliwy   do   odczytania   przez   człowieka”.   Barrow   utrzymuje,   że   przy   braku   „pojęcia   istoty 

boskiej sankcjonującej swymi działaniami bieg spraw świata, która ustanowiwszy niezmienne 

»prawa« przyrody stanowiłaby gwarancję poznania naukowego” nauka chińska skazana była na 

status „płonnej ciekawości” świata.

Jakkolwiek   jest   nieco   prawdy   w   twierdzeniu,   że   różnice   w   rozwoju   nauki   pomiędzy 

Wschodem a Zachodem mogą być przypisane odmiennym teologiom, decydujące były również 

inne czynniki.  Znaczna  część  zachodniej  nauki zasadzała  się na metodzie  redukcji, w której 

własności   złożonego   systemu   poznawane   są   przez   badanie   zachowania   się   jego   części 

składowych. By dać tu prosty przykład: przypuszczalnie żaden pojedynczy człowiek na świecie 

nie zna się na wszystkich systemach technicznych pasażerskiego samolotu Boeing 747, lecz nie 

ulega wątpliwości, że każdy z nich z osobna jest dobrze poznany przez wielu ludzi. Możemy 

jednak twierdzić, iż samolot ten jako całość jest poznawalny, ponieważ sądzimy, że stanowi on 

jedynie sumę swoich części składowych.

Zdolność   ludzkiego   umysłu   do   rozbijania   złożonych   systemów   występujących   w 

przyrodzie   na   prostsze   części   okazała   się   kluczowym   czynnikiem   postępu   nauki.   Termin 

„analiza”, częstokroć używany zamiennie ze słowem „nauka”, jest wyrazem przekonania, że, aby 

poznać jakąś całość, możemy ją rozłożyć na części i badać je osobno. Niektórzy utrzymują, że 

nawet   układy   tak   złożone   jak   ludzkie   ciało   można   poznać   poprzez   badanie   zachowania 

poszczególnych  genów czy też praw rządzących  cząsteczkami, z których  zbudowane są jego 

komórki.   Gdybyśmy   nie   byli   w   stanie   zrozumieć   ograniczonych   części   Wszechświata   bez 

zrozumienia   go  jako  całości,   uprawianie   nauki   byłoby   zajęciem   beznadziejnym.   Jednakże   ta 

„analizowalność” układów fizycznych nie jest własnością tak uniwersalną, jak dotąd sądzono. 

Ostatnio naukowcy znajdują coraz więcej przykładów systemów, które mogą być poznane tylko 

jako całość lub wcale. Od strony matematycznej systemy takie opisywane są za pomocą równań 

znanych jako „nieliniowe”. (Więcej szczegółów na ten temat można znaleźć w moich książkach 

The Cosmic Blueprint The Matter Myth). Być może było jedynie historycznym przypadkiem, że 

prekursorzy nauki zajmowali się liniowymi układami fizycznymi, które dopuszczają badanie na 

sposób analityczny, uprawniając w pełni metodę redukcjonistyczną.

Rozgłos, jaki zyskała sobie w ostatnich latach „nauka holistyczna”, wyzwolił falę książek, 

z   których   należałoby   przede   wszystkim   wymienić  Tao   fizyki  Fritjofa   Capry,   akcentujących 

podobieństwa   pomiędzy   starożytną   filozofią   Wschodu,   z   jej   naciskiem   na   holistyczny 

background image

wszechzwiązek rzeczy w świecie, a współczesną fizyką  układów nieliniowych. Czy możemy 

zatem wyciągnąć wniosek, że filozofia i teologia Wschodu wykazały jednak swą wyższość nad 

swymi zachodnimi odpowiednikami? Z pewnością nie. Dostrzegamy obecnie wyraźnie, że postęp 

nauki wymaga stosowania zarówno metod redukcjonistycznych, jak i holistycznych. Nie jest tak, 

że jedne z nich są słuszne, a drugie nie, jak niektórzy chcieliby to widzieć, lecz stanowią one dwa 

komplementarne   sposoby   poznawania   rzeczywistości.   Zastanawiające   jest   raczej   to,   iż 

redukcjonizm jest w ogóle możliwy. Dlaczego świat jest tak urządzony, że jesteśmy w stanie 

poznać cokolwiek nie poznając wszystkiego? Tym zagadnieniem zajmę się w rozdziale 6.

background image

Kosmiczny szyfr

Wraz z narodzinami nauki i nastaniem Ery Rozumu pojawiła się idea ukrytego porządku 

przyrody, który ma postać matematyczną i może być poznany na drodze wyrafinowanych badań 

naukowych.   Podczas   gdy   w   przypadku   prymitywnych   rozumowań   przyczynowo-skutkowych 

odkrywamy związki, które przedstawiają się bezpośrednio naszym zmysłom, prawa przyrody, do 

których dochodzi się w nauce, mają zupełnie odmienny, głębszy charakter. Przykładowo, każdy 

może zobaczyć, że jabłka spadają, lecz potwierdzenie słuszności sformułowanego przez Newtona 

prawa   proporcjonalności   przyciągania   grawitacyjnego   ciał   do   odwrotności   kwadratu   ich 

odległości   wymaga   przeprowadzenia   specjalnych   systematycznych   pomiarów   oraz,   co 

istotniejsze, abstrakcyjnej  podbudowy teoretycznej, wyrażonej za pośrednictwem matematyki, 

jako kontekstu tych  pomiarów. Surowe dane odbierane przez nasze zmysły nie tłumaczą  się 

bezpośrednio same przez się. Aby je ze sobą powiązać w zrozumiałą całość, potrzebny jest etap 

pośredni, który nazywamy teorią.

Fakt, że taka teoria ma wyrafinowaną, matematyczną postać, można obrazowo wyrazić, 

mówiąc, iż prawa przyrody są zaszyfrowane. Zadaniem naukowca jest poprzez „złamanie” tego 

kosmicznego szyfru odkryć tajemnice, jakie kryje w sobie Wszechświat. Heinz Pagels w swej 

książce The Cosmic Code (Kosmiczny szyfr) ujmuje to tak:

Jakkolwiek   idea,   że   Wszechświat   posiada   porządek   podległy   prawom,   które   nie   są 

bezpośrednio  dostępne  naszym  zmysłom,  jest bardzo stara, dopiero w ciągu  ostatnich  trzech 

stuleci odkryliśmy metodę pozwalającą na dotarcie do tego ukrytego porządku - eksperyment 

naukowy. Metoda ta jest tak skuteczna, że praktycznie wszystko, co uczeni wiedzą o przyrodzie, 

zdobyte zostało za jej pośrednictwem. Odkrywają oni, że świat jest w istocie rzeczy zbudowany 

według niewidocznych bezpośrednio, uniwersalnych zasad; nazwałbym to kosmicznym szyfrem 

szyfrem, którym posłużył się Demiurg stwarzając świat

7

.

Jak   wspominałem   w   rozdziale   l,   Platon   wykoncypował   dobrego   budowniczego, 

Demiurga,   budującego   świat   przy   pomocy   zasad   matematycznych   w   oparciu   o   symetryczne 

formy geometryczne.  Ta abstrakcyjna  dziedzina  Form Platońskich  powiązana  była  z naszym 

codziennym światem doznań zmysłowych poprzez wzniosłą sferę, którą Platon nazywał Światem 

Ducha. Filozof Walter Mayerstein przyrównuje platoński Świat Ducha do współczesnego pojęcia 

teorii matematycznej, która również wiąże nasze doznania zmysłowe z zasadami, na których 

background image

opiera się Wszechświat, dostarczając nam tego, co nazywamy zrozumieniem

8

. W czasach nam 

współczesnych także Einstein utrzymywał, że zdarzenia obserwowane przez nas bezpośrednio w 

świecie nie są na ogół zrozumiałe same przez się, lecz muszą być powiązane poprzez głębszą 

teorię.   W   liście   do   M.   Solovine'a,   datowanym   7   maja   1952   roku,   Einstein   pisał   o   „zawsze 

problematycznym związku pomiędzy światem idei a tym, czego bezpośrednio doświadczamy”. 

Einstein   podkreśla,   że   „nie   ma   logicznego   przejścia”   pomiędzy   pojęciami   teoretycznymi   a 

terminami obserwacyjnymi. Ich wzajemną odpowiedniość ustala się „na drodze pozalogicznej 

(intuicyjnej)”

9

.

Posługując się metaforą z dziedziny teleinformatyki, moglibyśmy powiedzieć, że prawa 

przyrody   stanowią   sposób   zakodowania   pewnej,   przeznaczonej   dla   nas   wiadomości, 

przekazywanej nam poprzez kanał, który nazywamy teorią naukową. Dla Platona i wielu jego 

następców nadawcą tej wiadomości jest Demiurg, kosmiczny Budowniczy. Jak przekonamy się 

w   następnych   rozdziałach,   wszelką   informację   o   świecie   można   w   zasadzie   przedstawić   w 

postaci binarnej (ciągów jedynek i zer), która jest formą najbardziej dogodną dla przetwarzania 

komputerowego. „Wszechświat - twierdzi Mayerstein - można symulować jako gigantyczny ciąg 

zer i jedynek; zadaniem nauki jest zatem nic innego, jak rozkodowanie i uporządkowanie tego 

»przesłania«   pod   kątem   uczynienia   go   sensownym   i   zrozumiałym   dla   nas”.   Co   można 

powiedzieć o naturze tego „przesłania”? „Jest całkiem oczywiste, iż jeśli zakładamy, że mamy do 

czynienia z zakodowaną wiadomością, musimy przyjąć, że w sposobie ułożenia zer i jedynek w 

tym ciągu występują pewne regularności czy też struktury; całkowicie przypadkowy, chaotyczny 

ciąg z natury rzeczy byłby niemożliwy do rozkodowania”. Tak więc fakt, że mamy do czynienia 

z kosmosem, a nie z chaosem, sprowadza się do istnienia struktur w owym zerojedynkowym 

ciągu. W rozdziale 6 zajmę się bliżej charakterem tych struktur.

background image

Obecny status praw przyrody

Wielu ludzi, także naukowców, skłonnych  byłoby przyjąć, że kosmiczny kod zawiera 

istotnie wiadomość przesyłaną nam przez jakiegoś Nadawcę. Twierdzą oni, iż skoro istnieje kod, 

musi istnieć także Nadawca, który się nim posłużył, i że na podstawie treści tej wiadomości 

możemy dowiedzieć się czegoś o nim samym. Inni, jak Pagels, nie są bynajmniej przekonani o 

istnieniu   Nadawcy:   „Jedną   z   najdziwniejszych   własności   kosmicznego   kodu   jest   to,   że,   jak 

wszystko na to wskazuje, Demiurg nie podpisał się pod swoim przesłaniem - mamy do czynienia 

z   wiadomością   od   obcej   istoty   bez   żadnych   jej   śladów”.   Zatem   prawa   przyrody   byłyby 

wiadomością   bez   Nadawcy.   Pagelsa   to   bynajmniej   nie   peszy.   „To,   czy   Bóg   jest   samym 

przesłaniem czy jego autorem, czy też napisało się ono samo, jest kwestią bez znaczenia dla 

naszego   życia.   Możemy   bez   szwanku   porzucić   ideę   Demiurga,   ponieważ   nie   ma   żadnych 

naukowych dowodów, iż świat został stworzony przez jakiegoś Stwórcę, żadnych śladów wolnej 

woli lub działania celowego, które wykraczałoby poza znane nam prawa przyrody”.

Jak długo prawa przyrody brały swój początek z Boga, ich istnienie nie było czymś w 

większym stopniu nadzwyczajnym niż istnienie materii, również stworzonej przez Boga. Lecz 

gdy nadprzyrodzone umocowanie praw zostanie zniesione, ich istnienie staje się wielką zagadką. 

Skąd się one biorą? Kto był „nadawcą przesłania”? Kto opracował kod? Czy prawa po prostu są 

same z siebie, żeby się tak wyrazić, czy też powinniśmy odrzucić samo pojęcie praw przyrody 

jako nikomu niepotrzebną pozostałość po wierzeniach religijnych?

Aby   spróbować   jakoś   rozwikłać   te   głębokie   problemy,   przyjrzyjmy   się   najpierw,   co 

naukowcy faktycznie uważają za prawo. Każdy zgodzi się, że w przyrodzie możemy wyróżnić 

uderzające regularności. Na przykład, orbity planet są prostymi figurami geometrycznymi, a ich 

ruch wykazuje wyraźną, opisaną matematycznie okresowość. Ze strukturami i okresami mamy do 

czynienia także w obrębie atomu i jego części składowych. Nawet obiekty spotykane w życiu 

codziennym,  takie jak mosty i maszyny,  zazwyczaj  zachowują się w  regularny,  możliwy do 

przewidzenia,   sposób.   Wychodząc   z   takich   doświadczeń,   naukowcy   na   mocy   rozumowania 

indukcyjnego   nadają   tym   regularnościom   charakter   prawa.   Jak   wyjaśniałem   w   rozdziale   l, 

rozumowanie indukcyjne nie jest absolutnie pewne. To, że przez całe nasze życie widzieliśmy, iż 

Słońce   codziennie   wschodzi,   nie   stanowi   żadnej   gwarancji,   że   wzejdzie   ono   także   jutro. 

Przekonanie, że tak właśnie będzie, to znaczy, że w przyrodzie są regularności, których możemy 

background image

być pewni, jest aktem wiary, lecz takim, bez którego postęp w nauce nie byłby możliwy.

Ważne jest, aby zrozumieć, że regularności występujące w przyrodzie są rzeczywiste. 

Czasem   można   spotkać   się   z   tezą,   iż   prawa   przyrody,   które   stanowią   próbę   uchwycenia   i 

usystematyzowania tych regularności, są narzucone światu przez nasz, starający się go pojąć, 

umysł.   Prawdą   jest,   że   człowiek   ma   tendencję   do   wyławiania   regularności,   a   nawet 

wprowadzania ich tam, gdzie faktycznie nie istnieją. Nasi przodkowie widzieli na gwiezdnym 

niebie sylwetki zwierząt oraz bogów i w ten sposób pojawiły się gwiazdozbiory. I chyba każdy z 

nas kiedyś dopatrywał się zarysów twarzy w chmurach, skałach czy też płomieniach. Niemniej 

jednak   uważam,   iż   pogląd,   że   prawa   przyrody   miałyby   stanowić   takie   właśnie   projekcje 

ludzkiego umysłu, jest absurdalny. Występowanie regularności w przyrodzie jest obiektywnym 

faktem matematycznym. Z drugiej strony, zdania, nazywane prawami, które możemy znaleźć w 

podręcznikach, s ą bez wątpienia dziełem ludzkiego umysłu, lecz takim, które ma za zadanie 

odzwierciedlać, choćby w niedoskonały sposób, faktycznie istniejące własności przyrody. Bez 

założenia, że regularności te są czymś realnym, nauka byłaby tylko czczym rozwiązywaniem 

szarad.

Innym powodem, dla którego nie uważam, że prawa przyrody są wytworem ludzkim, jest 

to, iż pomagają nam one dowiedzieć się czegoś nowego o świecie; niekiedy są to rzeczy całkiem 

nieoczekiwane. Cechą mocnego prawa jest to, że wykracza ono poza wierny opis zjawiska, w 

związku z którym zostało sformułowane, i dostarcza również uzasadnienia innych zjawisk. Na 

przykład  prawo ciążenia  Newtona wyjaśnia  dokładnie ruchy planet,  ale  opisuje jednocześnie 

pływy   oceanów,   kształt   Ziemi,   poruszanie   się   statków   kosmicznych   i   wiele   innych   zjawisk. 

Teoria elektromagnetyzmu Maxwella nie ograniczała się do opisu elektryczności i magnetyzmu, 

lecz potrafiła także wyjaśnić naturę fal świetlnych i przewidzieć istnienie fal radiowych. Zatem 

prawa przyrody o naprawdę podstawowym  charakterze ukazują głębokie związki zachodzące 

pomiędzy procesami  fizycznymi  różnego typu. Dzieje nauki pokazują, że gdy tylko  zostanie 

przyjęte  nowe prawo, poszukuje się wszystkich  możliwych  jego konsekwencji, testując je w 

innych   kontekstach,   co   często   prowadzi   do   odkrycia   nowych,   nieoczekiwanych,   istotnych 

zjawisk. To skłania mnie do poglądu, że uprawiając naukę, odkrywamy rzeczywiste regularności 

i związki, że odczytujemy te regularności, a nie wpisujemy ich do przyrody.

Nawet jeżeli nie wiemy, czym są prawa przyrody, ani skąd się one wzięły, jesteśmy w 

stanie   wymienić   ich   własności.   Co   ciekawe,   prawa   zostały   obdarzone   wieloma   atrybutami 

background image

poprzednio formalnie przypisywanymi Bogu, od którego miałyby one pochodzić.

Przede wszystkim, prawa mają charakter uniwersalny. Prawo, które jest słuszne jedynie 

czasem, czy też w tym, a nie w innym, miejscu, to nie jest żadne prawo. Zakłada się, że prawa 

przyrody obowiązują bez wyjątku w całym Wszechświecie i na wszystkich etapach jego historii, 

nie dopuszczając żadnych wyjątków. W tym sensie prawa są także doskonałe.

Po drugie, prawa są absolutne. Nie zależą od niczego poza sobą. W szczególności nie 

zależą od tego, kto dokonuje obserwacji świata, czy też od jego stanu. To prawa wpływają na 

stan Wszechświata, a nie odwrotnie. W istocie, zasadniczym elementem naukowej wizji świata 

jest rozdzielenie praw rządzących jakimś układem od stanu tego układu. Gdy naukowiec mówi o 

„stanie” układu, ma na myśli faktyczny fizyczny stan, w jakim układ ten znajduje się w danym 

momencie. W celu opisania tego stanu trzeba podać wartości wszystkich parametrów fizycznych 

charakteryzujących  układ.  Stan gazu, na przykład,  można  określić podając jego temperaturę, 

ciśnienie, skład chemiczny itd., jeśli interesują nas wyłącznie jego własności globalne. Zupełna 

specyfikacja   stanu   gazu   wymagałaby   podania   szczegółowych   pozycji   i   pędów   wszystkich 

cząsteczek wchodzących w jego skład. Stan ten nie jest czymś na zawsze ustalonym, danym od 

Boga; na ogół zmienia się z czasem. W przeciwieństwie do niego, prawa, pozwalające powiązać 

z sobą stan gazu w kolejnych momentach, pozostają niezmienne w czasie.

W ten sposób doszliśmy do trzeciej i najważniejszej własności praw przyrody: są one 

wieczne.   Ponadczasowy,   wieczny   charakter   tych   praw   znajduje   swój   wyraz   w   strukturach 

matematycznych używanych do opisu świata fizycznego. W mechanice klasycznej, na przykład, 

prawa dynamiki opisane są za pomocą tworu matematycznego zwanego „hamiltonianem”, który 

rozpatrywany   jest   w   przestrzeni   zwanej   „przestrzenią   fazową”.   Dokładne   definicje   tych 

konstrukcji matematycznych nie są tu dla naszych rozważań istotne. Ważne jest to, iż zarówno 

hamiltonian, jak i przestrzeń fazowa są niezmienne. Z drugiej strony, stan układu reprezentowany 

jest przez punkt w przestrzeni fazowej i punkt ten porusza się, co odpowiada zmianom, jakim 

podlega   układ   w   trakcie   swojej   ewolucji.   Zasadniczym   faktem   jest,   że   sam   hamiltonian   i 

przestrzeń fazowa nie zależą w żaden sposób od ruchu tego punktu.

Po czwarte, prawa są wszechwładne. Rozumiem przez to, że nic nie jest w stanie ujść 

spod   ich   władzy:   są   wszechmocne.   Można   również   w   pewnym   sensie   powiedzieć,   iż   są 

wszechwiedzące,   ponieważ,   jeżeli   już   trzymamy   się   metafory,   że   prawa   „rządzą”   układami 

fizycznymi, układy te nie muszą „powiadamiać” praw o stanie, w jakim się znajdują, aby prawa 

background image

„wydały odpowiednie instrukcje”, właściwe dla tego właśnie stanu.

W stosunku do tego, co powiedzieliśmy do tej pory o prawach przyrody, na ogół wszyscy 

są zgodni. Różnice pojawiają się jednak, gdy przychodzi do rozważania statusu tych praw. Czy 

odkrywamy  jedynie  realnie  istniejące prawa, czy też są one genialnym  wytworem  uczonych 

umysłów? Czy prawo powszechnego ciążenia Newtona jest obiektywną rzeczywistością, którą 

przypadkowo odkrył właśnie Newton, czy też zostało ono wynalezione przez Newtona w celu 

opisania obserwowanych w świecie regularności? Ujmując to w odmienny sposób, czy Newton 

odkrył coś obiektywnego w świecie, czy też po prostu wymyślił model matematyczny pewnego 

aspektu świata, który okazał się niezwykle użyteczny do jego opisu.

Język,  jakim posługują się naukowcy w odniesieniu  do praw  Newtona, zdradza silną 

preferencję dla pierwszej z wymienionych możliwości. Fizycy mówią, że planety „są posłuszne” 

prawom Newtona, jak gdyby planeta sama z siebie miała naturę buntowniczą i zaczęłaby sobie 

hulać, gdyby nie była „podległa” tym prawom. W ten sposób powstaje wrażenie, że prawa czają 

się   „gdzieś  tam”,  gotowe   ingerować  w  ruch  planet,   gdziekolwiek   i  kiedykolwiek  miałby   on 

miejsce. Ulegając temu sposobowi opisu, łatwo przypisać prawom istnienie niezależne. Jeśli nada 

im się taki status, mówi się, że prawa są transcendentne, ponieważ wykraczają poza sferę zjawisk 

fizycznych, lecz czy jest to faktycznie uzasadnione?

W   jaki   sposób   prawa   mogłyby   uzyskać   odrębny,   trancendentny   byt?   Przecież   jeżeli 

przejawiają się one jedynie za pośrednictwem układów fizycznych poprzez sposób, w jaki się te 

układy zachowują, nie możemy nigdy wyjść „poza” sferę zjawisk, do praw jako takich. Prawa 

kryją się wewnątrz zjawisk fizycznych, a my obserwujemy zjawiska, a nie prawa. Jeżeli jedynym 

sposobem dotarcia do praw jest śledzenie ich przejawów w sferze zjawisk fizycznych, jakież 

mamy prawo przypisywać im byt niezależny?

Z pomocą może nam tu przyjść analogia ze stosunkiem sprzętu i oprogramowania w 

technice   komputerowej.   Prawa   fizyki   odpowiadają   oprogramowaniu,   a   świat   fizyczny 

konkretnemu sprzętowi. (Prawdą jest, że słowo „konkretny” jest tu nieco naciągnięte, gdyż pod 

mianem świata fizycznego rozumiemy obiekty tak niedookreślone jak pola kwantowe, a nawet 

sama czasoprzestrzeń). Podstawowe pytanie może być zatem sformułowane w ten sposób: czy 

mamy   do   czynienia   z   niezależnie   istniejącym   „kosmicznym   oprogramowaniem”   -   czymś   w 

rodzaju programu komputerowego - dla Wszechświata, które obejmowałoby wszystkie niezbędne 

prawa? Czy to „oprogramowanie” może istnieć bez „sprzętu”?

background image

Wyraziłem   już   swoje   przekonanie,   że   prawa   przyrody   są   czymś   rzeczywistym,   są 

obiektywnymi   prawdami   o   Wszechświecie,   i   że   odkrywamy   je,   a   nie   wymyślamy.   Lecz 

wszystkie   znane   fundamentalne   prawa   okazują   się   mieć   formę   matematyczną.   Dlaczego   tak 

właśnie   jest,   to   ważny   i   trudny   problem,   który   wymaga   przyjrzenia   się   temu,   czym   jest 

matematyka. Zajmę się tym w następnych rozdziałach.

background image

Co to znaczy, że coś „istnieje”?

Jeżeli świat fizyczny opiera się na prawach fizyki, to te prawa w jakimś sensie muszą 

istnieć niezależnie. Jaką formę istnienia można przypisać bytowi tak abstrakcyjnemu i mglistemu 

jak prawo przyrody?

Zacznijmy od czegoś bardziej uchwytnego, powiedzmy, od kamienia. Wiemy, że kamień 

istnieje, ponieważ (zgodnie ze słynnym sformułowaniem Samuela Johnsona) możemy go kopnąć. 

Możemy go również zobaczyć i powąchać: kamień oddziałuje bezpośrednio na nasze zmysły. 

Jednak istnienie kamienia polega na czymś więcej niż na dotknięciu, obejrzeniu i powąchaniu. 

Można przyjąć, że istnienie kamienia nie zależy od naszych zmysłów. Istnieje on realnie i będzie 

istniał   nadal,   nawet   jeżeli   nie   będziemy   go   mogli   dotknąć,   zobaczyć   czy   powąchać.   Jest   to 

oczywiście hipoteza, jednakże hipoteza w pełni racjonalna. Jedno jest pewne, przy powtórnym 

oglądzie   nasze   dane   zmysłowe   będą   zbliżone   do   poprzednich.   Korelacja   pomiędzy   danymi 

otrzymywanymi przy kolejnych okazjach pozwala nam rozpoznawać, że jest to kamień i że za 

każdym razem mamy do czynienia z tym samym kamieniem. Zatem prościej jest przyjąć taki 

model   rzeczywistości,   w   którym   kamień   obdarzony   jest   istnieniem   niezależnym   od   naszych 

zmysłów,   niż   zakładać,   iż   znika   on   za   każdym   razem,   gdy   odwracamy   wzrok,   i   posłusznie 

pojawia się znów w tym samym miejscu, gdy spoglądamy nań ponownie.

W przypadku kamienia wszystko to wydaje się bezsporne. Jednak nie wszystkie obiekty, 

o których twierdzimy, że istnieją, są równie konkretne jak kamień. Co na przykład z atomami? Są 

one   zbyt   małe,   aby   można   je   było   zobaczyć,   dotknąć   czy   też   w   jakikolwiek   inny   sposób 

percypować   bezpośrednio.   Nasza   wiedza   dotycząca   atomów   uzyskiwana   jest   na   drodze 

pośredniej,   za   pomocą   przyrządów   pomiarowych,   których   dane   muszą   być   dopiero   poddane 

obróbce i interpretacji. Mechanika kwantowa pogarsza jeszcze bardziej sytuację. Okazuje się, że 

nie   jest   na   przykład   możliwe   przypisanie   atomowi   jednocześnie   określonego   położenia   i 

prędkości. Atomy i subatomowe cząstki elementarne tworzą jak gdyby na wpół istniejący świat 

cieni.

Mamy też dość abstrakcyjne byty, takie jak pola. Pole grawitacyjne wytwarzane przez 

dane ciało bez wątpienia istnieje, jednak nie można go kopnąć, nie mówiąc już o zobaczeniu czy 

powąchaniu. Czymś jeszcze bardziej nieuchwytnym są pola kwantowe, niewidzialne rozedrgane 

struktury przestrzenne, niosące w sobie energię.

background image

Mało   konkretne   istnienie   nie   jest   jednak   wyłącznie   domeną   fizyki.   Takich   pojęć   jak 

obywatelstwo czy bankructwo, z którymi mamy do czynienia na co dzień, też nie można dotknąć 

ani zobaczyć, niemniej są one realne. Kolejnym przykładem jest informacja. Fakt, iż informacji 

jako   takiej   nie   da   się   percypować   bezpośrednio,   w   niczym   nie   umniejsza   rzeczywistego 

znaczenia w naszym życiu „technologii informacyjnych”, pozwalających na przechowywanie i 

przetwarzanie   informacji.   To   samo   dotyczy   pojęcia   oprogramowania   i   inżynierii 

oprogramowania w informatyce. Oczywiście, jesteśmy w stanie zobaczyć i dotknąć elementów 

służących do przechowywania informacji, takich jak dysk komputerowy czy kostka pamięci, lecz 

nie możemy z nich bezpośrednio percypować informacji jako takiej.

Następnie   mamy   całą   sferę   zjawisk   subiektywnych,   jak   sny.   Obiekty   występujące   w 

marzeniach sennych niezaprzeczalnie istnieją (przynajmniej dla tego, kto je śni), lecz w sposób 

daleko   mniej   konkretny   niż   kamienie.   Podobnie   ma   się   sprawa   z   myślami,   emocjami, 

wspomnieniami i odczuciami: nie da się ich odrzucić jako nieistniejących, chociaż charakter ich 

istnienia   jest   zupełnie   odmienny   niż   istnienie   elementów   „obiektywnego”   świata.   Tak   jak 

programy komputerowe, umysł lub dusza mogą wymagać dla swego przejawiania się jakiegoś 

konkretnego   podłoża   -   w   tym   przypadku   mózgu   -   lecz   to   nie   czyni   ich   samych   bardziej 

konkretnymi.

Istnieje także kategoria rzeczy, które określa się ogólnym mianem kultury, na przykład 

muzyka   lub   literatura.   Istnienia   symfonii   Beethovena   czy   powieści   Dickensa   nie   da   się 

sprowadzić   po   prostu   do   istnienia   papieru,   na   którym   zostały   one   napisane.   Także   religii   i 

polityki nie można utożsamić z ludźmi, którzy je uprawiają.

Wszystkie te rzeczy „istnieją” w niezbyt konkretnym, niemniej istotnym, sensie.

I w końcu mamy dziedzinę matematyki i logiki, o zasadniczym znaczeniu dla nauki. Jaki 

jest charakter ich istnienia? Kiedy mówimy, że istnieje jakieś twierdzenie, na przykład dotyczące 

liczb pierwszych, nie chodzi nam o to, iż twierdzenie to można kopnąć tak jak kamień. Jednak 

obiekty matematyczne obdarzone są jakimś, jakkolwiek abstrakcyjnym, rodzajem istnienia.

Stajemy przed pytaniem, czy prawa fizyki są bytami transcendentnymi. Wielu fizyków 

uważa, że tak. Mówią o „odkrywaniu” praw fizyki, jak gdyby istniały one już poprzednio przez 

cały czas. Oczywiście, na ogół zakłada się, że to, co dzisiaj nazywamy prawami fizyki, stanowi 

jedynie próbę przybliżenia do pewnego zupełnego zbioru „prawdziwych” praw, wierząc jednak, 

iż w miarę postępu nauki przybliżenie to staje się coraz lepsze i pewnego dnia będziemy znali 

background image

„właściwe” prawa. Kiedy to nastąpi, fizyka teoretyczna osiągnie swój cel. Właśnie nadzieja, że 

takie   ukoronowanie   fizyki   czeka   nas   już   niedługo,   skłoniła   Stephena   Hawkinga   do   nadania 

swemu  wykładowi  inauguracyjnemu  przy  obejmowaniu   Katedry  Lukasjańskiej   w  Cambridge 

tytułu „Czy widać już koniec fizyki teoretycznej?”

Jednak nie wszystkim fizykom  równie odpowiada idea transcendentnych  praw. James 

Hartle,   zauważając,   iż   „naukowcy   w   naukach   przyrodniczych,   podobnie   jak   matematycy, 

postępują tak, jak gdyby prawdy w dziedzinach, którymi się zajmują, miały byt niezależny (...), 

jak gdyby mieli do czynienia z jedynym zbiorem praw, którymi rządzi się Wszechświat, przy 

czym prawa te są w istocie od niego niezależne”, dowodzi, że dzieje nauki obfitują w przykłady 

„niepodważalnych prawd uniwersalnych”, które okazywały się później możliwymi do obalenia 

przypadkami   szczególnymi.   To,   że   Ziemia   stanowi   centrum   Wszechświata,   było   nie-

kwestiowaną prawdą przez stulecia, dopóki ludzie nie stwierdzili, iż się im to tylko tak wydaje 

wskutek   położenia,   jakie   zajmują   na   jej   powierzchni.   To,   że   linie   i   kąty   w   trójwymiarowej 

przestrzeni   spełniają   aksjomaty   geometrii   euklidesowej,   również   przyjmowano   jako   prawdę 

fundamentalną i niepodważalną, a później okazało się, iż jest tak wyłącznie dlatego, że żyjemy w 

obszarze   czasoprzestrzeni,   w   którym   grawitacja   jest   stosunkowo   słaba,   tak   że   krzywizna 

przestrzeni była dotąd niezauważalna. Jak wiele jeszcze własności świata, zastanawia się Hartle, 

jest   podobnie   wynikiem   szczególnej   perspektywy,   z   jakiej   go   oglądamy,   a   nie   głębokiej, 

trancendentalnej prawdy? Samo rozróżnienie „świata” od „praw” również może do nich należeć.

Zgodnie z tym poglądem, nauka nie zmierza ku odkryciu jednego, ostatecznego zbioru 

praw.   Naszych   teorii   i   zawartych   w   nich   praw   nie   sposób   oddzielić,   twierdzi   Hartle,   od 

okoliczności, w jakich one powstały. Okoliczności te obejmują naszą kulturę, ewolucję naszego 

gatunku i konkretną wiedzę, jaką posiadamy o świecie. Obca cywilizacja, inaczej ukształtowana 

na drodze ewolucji, z inną kulturą i nauką, być może doszłaby do odmiennych praw. Hartle 

wskazuje na fakt, że do jednego zbioru danych można dopasować szereg odmiennych praw i 

nigdy nie możemy być pewni, że prawa, które wybraliśmy, są tymi właściwymi.

background image

Na początku

Istotne jest, by zdawać sobie sprawę, że same prawa nie dostarczają pełnego opisu świata. 

W istocie,  naszym  celem  przy formułowaniu  praw jest powiązanie  ze sobą różnych  zjawisk 

fizycznych. Jedno z prostych praw na przykład głosi, że piłka wyrzucona ku górze porusza się po 

torze parabolicznym. Parabole mogą być jednak różne; jedne są wysokie i krótkie, inne niskie i 

długie. Po jakiej parabli będzie poruszała się dana piłka, zależy od prędkości i kąta, pod jakim 

została ona wyrzucona. Paramery te określa się mianem „warunków początkowych”. Prawo o 

ruchu po paraboli plus warunki początkowe pozwalają na jednoznaczne wyznaczenie toru ruchu 

piłki.

Prawa   zatem   są   wypowiedziami   o   klasach   zjawisk,   natomiast   warunki   początkowe 

dotyczą   konkretnych   układów   fizycznych.   Prowadzenie   badań   naukowych   przez   fizyka-

eksperymentatora   polega   często   na   doborze,   lub   wynajdywaniu,   pewnych   warunków 

początkowych.   Na   przykład,   Galileusz   w   swym   słynnym   doświadczeniu   ze   spadaniem   ciał 

upuszczał jednocześnie przedmioty o różnych masach, aby dowieść, że wszystkie one uderzą w 

ziemię w tej samej chwili. W przeciwieństwie do warunków początkowych prawa nie mogą być 

dobierane   przez  badacza;  są  one „dane  od Boga”.  Powoduje  to, że  prawa  uzyskują  o  wiele 

wyższą   rangę   i   uważane   są   za   fundamentalne,   wieczne   i   absolutne,   podczas   gdy   warunki 

początkowe traktuje się jako przypadkowe szczegóły, dające się dowolnie kształtować.

W   świecie   rzeczywistym   jednak,   poza   zasięgiem   możliwości   eksperymentatora, 

warunków początkowych dostarcza sama przyroda. Spadające na ziemię ziarno gradu nie zostało 

upuszczone przez Galileusza w zamierzony sposób, lecz jest wytworem procesów fizycznych 

zachodzących w górnych warstwach atmosfery. Podobnie, gdy do Układu Słonecznego wleci z 

zewnątrz kometa poruszająca się po określonym torze, jej orbita zależy od procesów fizycznych, 

jakie zaszły w miejscu, gdzie powstała. Innymi słowy, warunki początkowe odnoszące się do 

jakiegoś   interesującego   nas   układu   kształtowane   są   przez   otoczenie,   w   jakim   się   ten   układ 

znajduje.   Można   sobie   z   kolei   zadać   pytanie   o   warunki   początkowe   tego   szerszego   układu. 

Dlaczego ziarno gradu uformowało się w danym miejscu atmosfery? Dlaczego chmury utworzyły 

się tam, a nie gdzie indziej? Ten ciąg pytań nie ma końca.

Łatwo się przekonać, że sieć takich przyczynowych  powiązań rośnie bardzo szybko i 

wkrótce obejmuje  cały Wszechświat.  I co wtedy?  Pytanie  o kosmiczne  warunki początkowe 

background image

prowadzi nas z powrotem do Wielkiego Wybuchu i problemu pochodzenia Wszechświata. Tutaj 

mamy do czynienia z diametralnie odmienną sytuacją. Podczas gdy dla poszczególnych układów 

fizycznych  warunki początkowe były czymś  przypadkowym,  co można było uzasadnić przez 

odwołanie   się   do   szerszego   kontekstu   we   wcześniejszej   chwili,   w   przypadku   warunków 

początkowych   Wszechświata   nie   mamy   szerszego   kontekstu   ani   wcześniejszej   chwili. 

Kosmiczne warunki początkowe są czymś „danym”, podobnie jak prawa fizyki.

Wielu naukowców uważa, że problem warunków początkowych  leży całkowicie poza 

zakresem nauki i, podobnie jak prawa, trzeba je po prostu przyjąć jako pierwotny fakt. Ci o 

bardziej religijnym nastawieniu umysłu dla ich uzasadnienia odwołują się do Boga, natomiast 

ateiści   uważają   je   za   przypadkowe   lub   arbitralne.   Zadaniem   naukowca   jest   poszukiwanie 

uzasadnień nie polegających na żadnym szczególnym doborze warunków początkowych. Jeśli 

jakiś element świata może być uzasadniony jedynie przez założenie, iż Wszechświat zaczął się w 

określony sposób, to nie stanowi to faktycznie żadnego uzasadnienia. Po prostu stwierdza się 

jedynie,   że   świat   jest,   jaki   jest,   ponieważ   kiedyś   był,   jaki   był.   Rodzi   to   tendencję   do 

konstruowania teorii Wszechświata, które nie zależą w zasadniczy sposób od doboru warunków 

początkowych.

Pomysłu, jak tego można dokonać, dostarcza termodynamika.  Jeżeli dostanę szklankę 

gorącej wody, wiem, że jutro będzie ona zimna. Natomiast, jeśli dostanę szklankę zimnej wody, 

nie jestem w stanie stwierdzić, czy była ona gorąca wczoraj lub przedwczoraj, jak bardzo gorąca, 

i czy w ogóle kiedykolwiek była gorąca. Można powiedzieć, że szczegóły termicznej historii tej 

wody,   w   tym   jej   stan   początkowy,   zostały   zatarte   przez   procesy   termodynamiczne,   które 

doprowadziły ją do równowagi termodynamicznej z otoczeniem. Kosmologowie twierdzą, że 

analogiczne procesy doprowadziły do zatarcia śladów warunków początkowych Wszechświata, a 

zatem jest niemożliwe wywnioskowanie, nawet w najogólniejszy sposób, jaki był Wszechświat 

na początku, jedynie na podstawie znajomości jego stanu dzisiejszego.

Pozwolę   sobie   przytoczyć   przykład.   Wszechświat   rozszerza   się   obecnie   z   tą   samą 

prędkością   we   wszystkich   kierunkach.   Czy   oznacza   to,   że   Wielki   Wybuch   był   izotropowy? 

Niekoniecznie. Mogło być tak, że ekspansja na początku miała charakter chaotyczny, odbywając 

się z różnymi prędkościami w różnych kierunkach, i dopiero później uległa uporządkowaniu w 

wyniku różnych procesów fizycznych. Na przykład ruch w kierunkach, w których ekspansja była 

najszybsza,   mógł   być   spowalniany   przez   siły   tarcia.   Albo   też,   zgodnie   z   modnym   obecnie 

background image

modelem   Wszechświata   inflacyjnego,   omówionym   pokrótce   w   rozdziale   2,   we   wczesnym 

Wszechświecie   wystąpiła   faza   gwałtownej   ekspansji,   podczas   której   wszelkie   istniejące 

początkowo   nieregularności   zostały   wyeliminowane.   W   wyniku   tego   powstał   Wszechświat 

przestrzennie jednorodny i ekspandujący izotropowo.

Hipoteza,   że   obserwowany   obecnie   stan   Wszechświata   jest   w   znacznym   stopniu 

niezależny od warunków początkowych Wielkiego Wybuchu, jest chętnie przyjmowana przez 

wielu naukowców. Niewątpliwie po części jako wyraz sprzeciwu wobec religijnych koncepcji 

zakładających stworzenie nadprzyrodzone, ale także dlatego, że usuwa ona potrzebę zajmowania 

się stanem Wszechświata w fazie początkowej, gdy panowały w nim ekstremalne warunki. Z 

drugiej   strony,   jest   oczywiste,   iż   warunków   początkowych   nie   można   całkowicie   pominąć. 

Możemy sobie wyobrazić Wszechświat na tym samym etapie ewolucji, co nasz, lecz zupełnie 

odmienny, a następnie na podstawie praw fizyki prześledzić jego ewolucję wstecz w czasie aż po 

początek   Wielkiego   Wybuchu.   Znaleźlibyśmy   wówczas   jakiś   stan   początkowy,   który   byłby 

odpowiedzialny za odmienny przebieg ewolucji tamtego Wszechświata.

Jakiekolwiek   były   warunki   początkowe   powstania   naszego   Wszechświata,   możemy 

zawsze   zapytać:   dlaczego   właśnie   takie?   Biorąc   pod   uwagę,   że   liczba   możliwości   była 

nieskończona, dlaczego zaczął się właśnie w ten sposób? Czy te konkretne warunki początkowe 

były w jakiś sposób wyróżnione? Pojawia się pokusa, by zakładać, że warunki początkowe nie 

miały charakteru arbitralnego, lecz były wynikiem działania jakiejś głębszej zasady. W końcu, 

powszechnie przyjmuje się, iż prawa fizyki nie są arbitralne, lecz mogą być z sobą powiązane 

matematycznie w zgrabną całość. Czy nie mogłoby istnieć również jakieś dające się zgrabnie 

wyrazić matematycznie „prawo warunków początkowych”?

Takie  przypuszczenie  było  wysuwane  przez  wielu teoretyków.  Przykładem  może  być 

Roger Penrose, który dowodził, że przy przypadkowym wyborze warunków początkowych jest 

wielce   prawdopodobne,   iż   powstałby   Wszechświat   wysoce   nieregularny,   wypełniony 

straszliwymi czarnymi dziurami, a nie względnie jednorodnie rozłożoną materią. Wszechświat 

tak   jednorodny   jak   nasz   wymaga   niewiarygodnie   dokładnego   doboru   warunków   swego 

powstania,   tak,   aby   ekspansja   w   obrębie   wszystkich   jego   obszarów   była   ze   sobą   dokładnie 

uzgodniona.   Posługując   się   metaforą   Stwórcy   dysponującego   nieskończonym   „inwentarzem” 

możliwych warunków początkowych, Penrose twierdzi, że Stwórca musiałby bardzo dokładnie 

przeglądać swój spis, zanim znalazłby zestaw dający Wszechświat taki jak nasz. Gdyby wyboru 

background image

dokonywał na ślepo, na pewno by mu się to nie udało. „Nie mając bynajmniej zamiaru ujmować 

Stwórcy zdolności w tym względzie - zauważa Penrose - z całym przekonaniem twierdzę, że 

jednym   z   obowiązków   nauki   jest   poszukiwanie   praw   fizycznych,   które   pozwoliłyby   na 

uzasadnienie, lub przynajmniej dostarczały sensownego opisu, skąd wzięło się to fenomenalne 

dopasowanie, z którym tak często mamy do czynienia w przyrodzie (...). Potrzebujemy prawa 

fizyki,   które   wyjaśniałoby   szczególny   charakter   stanu   początkowego”.   Istotą   prawa 

zaproponowanego   przez   Penrose'a   jest   nałożenie   na   pierwotny   stan   Wszechświata   wymogu 

jednorodności od samego początku, bez potrzeby odwoływania się do inflacji czy też jakiegoś 

innego   procesu   ujednolicającego.   Nie   będziemy   się   tutaj   zagłębiać   w   jego   szczegóły 

matematyczne.

Inną propozycję dyskutowali Hartle i Hawking w kontekście swojej teorii kwantowo-

kosmologicznej.   Jak   wspominałem   w   rozdziale   2,   w   teorii   tej   nie   występuje   wyraźnie 

wyróżniony „pierwszy moment”, zaistnienie świata nie ma charakteru pojedynczego zdarzenia. 

Zatem   problem   warunków   początkowych   zostaje   usunięty   przez   wyeliminowanie   samego 

momentu początkowego. Jednakże, aby to było możliwe, na kwantowy stan Wszechświata muszą 

być nałożone poważne ograniczenia, obowiązujące nie tylko na początku, lecz przez cały czas. 

Hartle i Hawking podali dokładną postać matematyczną tych ograniczeń, które w ten sposób w 

istocie odgrywają rolę „prawa warunków początkowych”.

Należy   zdawać   sobie   sprawę,   że   prawa   warunków   początkowych   nie   można 

zweryfikować ani wyprowadzić z istniejących praw fizyki. Wartość takiego prawa, podobnie jak 

wszystkich   hipotez   naukowych,   polega   na   jego   zdolności   przewidywania   konsekwencji 

obserwacyjnych. Wprawdzie częstokroć pewne hipotezy cieszą się powodzeniem u teoretyków 

ze względu na swoją elegancję matematyczną i „naturalność”, lecz takie argumenty trudno uznać 

za zadowalające uzasadnienie. Hipoteza Hartle'a-Hawkinga, na przykład, doskonale pasuje do 

formalizmu kwantowej teorii grawitacji, w jej kontekście wydaje się bardzo prawdopodobna i 

naturalna, lecz gdyby rozwój naszej nauki przebiegał innymi drogami, prawo Hartle'a-Hawkinga 

być może wyglądałoby na wysoce arbitralne i wydumane.

Tak   się   nieszczęśliwie   składa,   że   prześledzenie   obserwacyjnych   konsekwencji   teorii 

Hartle'a-Hawkinga nie jest łatwe. Jej twórcy utrzymują, że przewiduje ona fazę inflacyjną w 

ewolucji   Wszechświata,   co   niewątpliwie   odpowiada   najnowszym   trendom   w   kosmologii,   a 

ponadto może kiedyś będzie mogła coś powiedzieć o wielkoskalowej strukturze Wszechświata, 

background image

na   przykład   uzasadnić   sposób   grupowania   się   galaktyk.   Jednakże   nie   wygląda   na   to,   żeby 

kiedykolwiek   udało   się   jednoznacznie   wybrać   takie   prawo   na   drodze   obserwacyjnej.   Hartle 

dowodzi wręcz że takie jedno prawo nie istnieje. W każdym razie, nawet gdybyśmy mieli prawo 

wyznaczające   stan   kwantowy   Wszechświata   jako   całości,   nie   można   by   na   jego   podstawie 

powiedzieć niczego o elementach jego szczegółowej struktury, na przykład stwierdzić istnienie 

konkretnej   planety,   nie   mówiąc   już   o   istnieniu   konkretnej   osoby.   Z   samego   kwantowego 

charakteru teorii wynika (na skutek zasady nieoznaczoności Heisenberga), że takie szczegóły 

pozostałyby nieokreślone.

Być   może   jest  tak,   że   odróżnienie   praw   od  warunków   początkowych,   które   leżało   u 

podłoża wszystkich dotychczasowych prób badania układów dynamicznych, jest w większym 

stopniu   historycznym   wytworem   sposobu,   w   jaki   następował   rozwój   nauki,   aniżeli 

fundamentalną własnością przyrody. W podręcznikach czytamy, że typowy eksperyment polega 

na tym, że eksperymentator buduje dany układ fizyczny, nadając mu określony stan, a następnie 

obserwuje, co się dzieje, tzn. jak ten stan zmienia się w czasie. Powodzenie metody naukowej 

opiera się na powtarzalności wyników eksperymentu. Gdy eksperyment zostanie powtórzony, 

prawa fizyki pozostają te same, natomiast warunki początkowe dobiera eksperymentator. W ten 

sposób kstałtuje się wyraźny, operacyjny podział na prawa i warunki początkowe. Jednakże w 

kosmologii   sytuacja   wygląda   inaczej.   Wszechświat   jest   tylko   jeden,   zatem   nie   ma   mowy   o 

zastosowaniu   pojęcia   powtarzalnego   eksperymentu.   Ponadto   nie   jesteśmy   w   stanie   zmienić 

warunków początkowych, tak samo jak nie możemy zmienić praw fizyki. Zatem ostry podział na 

prawa   fizyki   i   warunki   początkowe   ulega   zatarciu.   „Czyż  nie   byłoby   możliwe   -   snuje 

przypuszczenia Hartle - że na wyższym poziomie działają bardziej ogólne zasady wyznaczające 

zarówno warunki początkowe, jak i dynamikę?”.

Moim zdaniem, hipotezy o prawie warunków początkowych silnie potwierdzają platońską 

koncepcję, że prawa są bytem rzeczywistym,  trancendentalnym  względem świata fizycznego. 

Czasem spotyka się twierdzenie, że prawa fizyki zaistniały wraz z Wszechświatem. Gdyby tak 

było, prawa te nie mogłyby wyjaśnić początku Wszechświata, ponieważ działałyby dopiero po 

jego powstaniu. Widać to szczególnie wyraźnie w przypadku prawa warunków początkowych, 

ponieważ prawo to z założenia ma uzasadniać, dlaczego Wszechświat zaistniał właśnie w takiej 

konkretnej   postaci.   W   koncepcji   Hartle'a-Hawkinga   nie   występuje   moment   narodzin 

Wszechświata,   w   którym   miałoby   się   stosować   ich   prawo,   niemniej   ma   ono   stanowić 

background image

uzasadnienie   faktycznej   postaci   świata.   Jeżeli   prawa   nie   mają   charakteru   transcendentnego, 

zmuszeni jesteśmy przyjąć po prostu jako fakt, że Wszechświat jest taki, jaki jest, a pewne jego 

własności wyrażane są jako wbudowane weń prawa. Natomiast, gdy prawa są trancendentne, 

mamy podstawy poszukiwania uzasadnienia, dlaczego Wszechświat jest właśnie taki.

Teza o transcendentalnym charakterze praw fizyki jest współczesnym odpowiednikiem 

platońskiej dziedziny form doskonałych, których kopiami miałyby być ulotne obiekty-cienie ze 

świata   naszych   doznań   zmysłowych.   W   praktyce   prawa   fizyki   formułowane   są   w   postaci 

zależności   matematycznych,   a   zatem   w   naszym   poszukiwaniu   niewzruszonych   podstaw 

rzeczywistości musimy się teraz zająć istotą matematyki i odwiecznym problemem, czy obiekty 

matematyczne istnieją jako samodzielne byty w sensie platońskim.

background image

Rozdział czwarty

MATEMATYKA A ŚWIAT REALNY

Nic nie uwidacznia w większym stopniu przepaści, jaka istnieje miedzy dwiema sferami - 

humanistyką   a   naukami   ścisłymi   -   niż   matematyka.   Dla   niematematyków   matematyka   jest 

obcym,   przeraźliwie   skomplikowanym   światem   abstrakcji,   pełnym   dziwacznych   symboli   i 

technicznych  procedur,  niemożliwym  do opanowania  jeżykiem  czarnej  magii.  Dla naukowca 

matematyka stanowi gwarancję precyzji i obiektywności; okazuje się także być językiem samej 

przyrody.   Nikt,   kto   nie   ma   do   czynienia   z   matematyką,   nie   może   w   pełni   pojąć   istoty 

wewnętrznego porządku wpisanego głęboko w naturę świata fizycznego.

Właśnie   z   powodu   tej   niezastąpionej   roli,   jaką   matematyka   pełni   w   nauce,   wielu 

naukowców, zwłaszcza fizyków, upatruje w niej podstawową rzeczywistość przyrody. Jeden z 

moich współpracowników powiedział mi kiedyś, że jego zdaniem świat to nic innego jak różne 

obiekty matematyczne. Dla zwykłego człowieka, który postrzega rzeczywistość jako składającą 

się   z   obiektów   fizycznych,   a   matematykę   jako   ezoteryczne   igraszki   umysłu,   brzmi   to   bez 

wątpienia zdumiewająco. Jednakowoż pogląd, że matematyka jest kluczem do tajemnic kosmosu, 

jest równie stary jak ona sama.

background image

Magia liczb

Większości  ludzi  starożytna  Grecja kojarzy się w pierwszym  rzędzie  z geometrią.  W 

naszych   czasach   uczniowie   w   szkole   uczą   się   twierdzenia   Pitagorasa   i   innych   elementów 

geometrii euklidesowej jako wprawki w matematycznym i logicznym myśleniu. Niemniej dla 

filozofów greckich ich geometria była czymś więcej niż tylko ćwiczeniem umysłu. Pojęcia liczby 

i formy fascynowały ich tak bardzo, że oparli na nich całą teorię Wszechświata. Jak to ujął 

Pitagoras: „Liczba jest miarą wszechrzeczy”.

Sam Pitagoras żył w szóstym stuleciu przed naszą erą i był założycielem szkoły filozofów 

zwanych  potem pitagorejczykami.  Byli  oni przekonani, że porządek kosmosu zasadza się na 

stosunkach liczb, i przypisywali pewnym liczbom i kształtom znaczenie mistyczne. Szczególną 

estymą  darzyli  na przykład tak zwane „doskonałe” liczby,  jak 6 i 28, które są sumą swoich 

podzielników (na przykład 6=1+2+3). Największym poważaniem cieszyła się liczba 10, zwana 

boskim   tetraktusem,   jako   suma   pierwszych   czterech   liczb   całkowitych.   Poprzez   układanie 

punktów w różne konfiguracje Grecy tworzyli liczby trójkątne (jak 3, 6 i 10), kwadratowe (4, 9, 

16, ...) i tak dalej. Kwadratową liczbę 4 uczyniono symbolem sprawiedliwości i wzajemności, 

czego dalekie echo pobrzmiewa do dziś w angielskich wyrażeniach a square deal [sprawiedliwy 

układ] i being all square [w zgodzie ze wszystkimi]. Trójkątne przedstawienie liczby 10 uważane 

było za święty symbol, na który przysięgano przy obrzędach inicjacyjnych.

Wiara pitagorejczyków w potęgę numerologii została jeszcze bardziej podbudowana po 

odkryciu   roli   liczby   w   muzyce   przez   Pitagorasa,   który   stwierdził,   że   długości   strun 

wytwarzających   harmonicznie   powiązane   tony   pozostają   ze   sobą   w   prostych   stosunkach 

liczbowych. Na przykład, oktawa odpowiada stosunkowi 2:1. Samo słowo „racjonalny” bierze 

swój   początek   z   wielkiego   heurystycznego   znaczenia,   jakie   pitagorejczycy   przypisywali 

stosunkom   („racjom”)   liczb   całkowitych,   takim   jak   3/4   i   2/3.   Zresztą   matematycy   do   dziś 

nazywają takie ułamkowe liczby racjonalnymi (wymiernymi). Dlatego duży szok stanowiło dla 

Greków odkrycie, że pierwiastka z liczby 2 nie można przedstawić w postaci stosunku liczb 

całkowitych.   Co   to   znaczy?   Wyobraźmy   sobie   kwadrat   o   boku   jednego   metra.   Zgodnie   z 

twierdzeniem podanym właśnie przez Pitagorasa długość przekątnej wyrażona w metrach równa 

się   pierwiastkowi   kwadratowemu   z   dwóch.   Wynosi   to   w   przybliżeniu   7/5   metra;   lepszym 

przybliżeniem będzie 707/500 metra, lecz w rzeczywistości niema ułamka, który wyrażałby ten 

background image

stosunek dokładnie, niezależnie od tego, jak wielki wzięlibyśmy licznik i mianownik. Liczby 

tego rodzaju noszą nazwę „niewymiernych” (irrational).

Pitagorejczycy stosowali swoją numerologię również w astronomii. Wymyślili oni system 

dziewięciu koncentrycznych sfer unoszących znane ciała niebieskie podczas ich obrotu wokół 

Ziemi   oraz   mityczną   „Przeciwziemię”,   aby   otrzymać   tetraktyczną   liczbę   10.   Powiązanie 

pomiędzy harmonią w muzyce a harmonią sfer niebieskich wyrażane było jako przypuszczenie, 

że ich obrotowi towarzyszy muzyka - muzyka sfer niebieskich. Idee pitagorejskie zostały przejęte 

przez Platona, który w dialogu  Timaios  rozwijał dalej model kosmosu oparty na elementach 

muzycznych i numerycznych. Zastosował on również numerologię do czterech żywiołów - ziemi, 

powietrza, ognia i wody - oraz badał kosmiczne znaczenie regularnych form geometrycznych.

Pitagorejskie   i   platońskie   modele   świata   uderzają   nas   dzisiaj   swym   prymitywnym   i 

ekscentrycznym  charakterem,  jakkolwiek od czasu do czasu otrzymuję pocztą prace, których 

autorzy próbują uzasadniać własności jąder atomowych lub cząstek elementarnych w oparciu o 

numerologię starożytnych  Greków, a więc ewidentnie jej mistyka nadal w jakimś stopniu do 

niektórych przemawia. Zasadnicza wartość tych numerologicznych i geometrycznych koncepcji 

nie polega jednak na ich prawdopodobności, lecz na tym, że traktują one fizyczną rzeczywistość 

jako przejaw ukrytej harmonii matematycznej. Ta podstawowa idea przetrwała aż do początków 

ery naukowej. Kepler, na przykład, wyobrażał sobie Boga jako geometrę i w swych badaniach 

Układu Słonecznego kierował się w znacznym stopniu tym, co uważał za mistyczne znaczenie 

występujących  w nim wartości liczbowych.  A współczesna fizyka  matematyczna, jakkolwiek 

odżegnuje   się   od   podtekstów   mistycznych,   nadal   w   gruncie   rzeczy   podziela   przekonanie 

starożytnych   Greków,   że   we   Wszechświecie   mamy   do   czynienia   z   racjonalnym   ładem, 

możliwym do wyrażenia za pomocą zależności matematycznych.

Koncepcje   numerologiczne   występowały   również   w   wielu   innych   kulturach   i   ich 

pozostałości   odnaleźć   możemy   zarówno   w   nauce,   jak   i   sztuce.   Na   starożytnym   Bliskim 

Wschodzie liczba l - Jedność - utożsamiana była często z Bogiem jako Pierwszą Przyczyną. 

Asyryjczycy   i   Babilończycy   przypisywali   ubóstwione   liczby   ciałom   niebieskim:   Wenus,   na 

przykład, utożsamiana była z liczbą 15, a Księżyc z liczbą 30. Hebrajczycy nadawali szczególne 

znaczenie liczbie 40, która wielokrotnie pojawia się w Biblii. Szatan wiązany jest z liczbą 666, 

której złowróżbne znaczenie zachowało się nawet do dziś dnia, jeśli faktycznie, jak podała pewna 

gazeta, Ronald Reagan zmienił adres swego domu w Kalifornii, aby jej uniknąć. W istocie rzeczy 

background image

numerologia   w   Biblii   ujawnia   się   wielokrotnie,   zarówno   w   samej   treści,   jak   i   jej   układzie. 

Niektóre z późniejszych sekt kabalistycznych, takich jak gnostycy czy też kabaliści, zajmowały 

się konstruowaniem wymyślnych, ezoterycznych systemów numerologicznych na bazie Biblii. 

Tego rodzaju teorie nie były obce także samemu Kościołowi. W szczególności św. Augustyn 

nawoływał do studiów numerologicznych nad Biblią w ramach kształcenia chrześcijańskiego i 

praktyki  te utrzymały się aż do późnego średniowiecza. Również obecnie w wielu kulturach 

przypisuje się nadprzyrodzoną moc pewnym liczbom lub figurom geometrycznym, a szczególne 

sposoby obliczania stanowią istotny składnik rytuałów magicznych w wielu częściach świata. 

Nawet w naszym tak bardzo sceptycznym społeczeństwie Zachodu wielu ludzi utrzymuje, że są 

liczby przynoszące szczęście lub nieszczęście, jak 7 lub 13.

Te magiczne odniesienia zaciemniają fakt, że arytmetyka i geometria zrodziły się pod 

naciskiem potrzeb czysto praktycznych. Konstruowaniu formalnych twierdzeń geometrycznych 

w   starożytnej   Grecji   towarzyszyło   wynalezienie   linijki   i   kompasu   oraz   rozwój   technik 

geodezyjnych, które stosowano w budownictwie i architekturze. Te proste techniki dały początek 

olbrzymiemu   systemowi   myślowemu.   Potęga   liczb   i   geometrii   tak   bardzo   przemawiała   do 

wyobraźni,   że  stały  się  one  podstawą   nowej   wizji   świata,  w   której   Bogowi   przypisano  rolę 

Wielkiego   Geometry,   co   zostało   tak   dobrze   oddane   w   znanej   rycinie   Williama   Blake'a  The 

Ancient of Days [U zarania dni] przedstawiającej Boga schylającego się z niebios, by zmierzyć 

świat za pomocą cyrkla.

Z historii wynika, że każda epoka wykorzystuje swe najbardziej imponujące zdobycze 

techniki jako metaforę kosmosu, czy nawet Boga. I tak w siedemnastym wieku nie rozważano już 

Wszechświata   w   kategoriach   muzycznej   lub   geometrycznej   harmonii,   nad   którą   czuwa 

kosmiczny Geometra, lecz w zupełnie nowy sposób. Naczelnym zadaniem techniki stało się w 

tym   czasie   zapewnienie   dokładnych   przyrządów   nawigacyjnych,   szczególnie   dla   celów 

kolonizacji   Ameryki.   Określanie   szerokości   geograficznej   nie   sprawiało   żeglarzom   żadnego 

problemu, ponieważ można ją było wyznaczyć na podstawie, na przykład, wysokości Gwiazdy 

Polarnej   nad   horyzontem.   Inaczej   przedstawiała   się   sprawa   z   długością   geograficzną,   gdyż 

wskutek obrotu Ziemi sfera niebieska obraca się. W tej sytuacji pomiar położenia związany jest z 

pomiarem czasu. Przy żeglowaniu ze wschodu na zachód, dla przepłynięcia Atlantyku, niezbędne 

było   posiadanie   dokładnych   zegarów.   A   zatem,   pod   naciskiem   kupców   i   polityków,   wiele 

wysiłku poświęcano na konstruowanie precyzyjnych czasomierzy dla celów żeglarskich.

background image

Poszukiwanie   metod   dokładnego   pomiaru   czasu   w   praktyce   znalazło   swój   wyraz 

teoretyczny w pracach Galileusza i Newtona.

Galileusz wykorzystał czas jako parametr przy formułowaniu swego prawa spadania ciał. 

Przypisuje się mu także odkrycie, że okres wahadła nie zależy od amplitudy jego wahań, co 

podobno   miało   miejsce   w   kościele,   gdzie   zmierzył   okres   wahającej   się   lampy   za   pomocą 

własnego pulsu. Newton, świadom zasadniczej roli, jaką czas pełni w fizyce, stwierdził w swych 

Principiach, że „absolutny, prawdziwy, matematyczny czas, sam z siebie, na mocy swej własnej 

natury, płynie równomiernie bez odniesienia do czegokolwiek zewnętrznego”. Zatem czas, tak 

jak odległość, został uznany za własność świata fizycznego, którą można mierzyć, w zasadzie z 

dowolną dokładnością.

Dalsze rozważanie roli upływu czasu w fizyce  doprowadziło Newtona do rozwinięcia 

matematycznej   teorii   „fluksji”,   znanej   dzisiaj   jako   rachunek   różniczkowy.   Podstawowym 

elementem  tego formalizmu  jest pojęcie  ciągłej  zmiany.  Newton uczynił  je podstawą swojej 

mechaniki,   w   której   zawarł   prawa   ruchu   ciał   materialnych.   Najbardziej   spektakularnym 

skutecznym zastosowaniem mechaniki Newtona był ruch planet w układzie słonecznym. W ten 

sposób muzyka sfer została zastąpiona modelem Wszechświata jako mechanizmu zegara. Model 

ten został w największym stopniu rozwinięty w drugiej połowie osiemnastego wieku w pracach 

Pierre'a Laplace'a, który potraktował każdy atom we Wszechświecie jako element kosmicznego 

mechanizmu   zegarowego   o   niewiarygodnej   precyzji.   Bóg-Geometra   stał   się   Bogiem-

Zegarmistrzem.

background image

Mechanizacja matematyki

W bieżącym stuleciu również mieliśmy do czynienia z rewolucją techniczną, która już 

zdążyła ukształtować całą naszą wizję świata. Chodzi mi o powstanie komputera, co wywołało 

głębokie   zmiany   w   sposobie   pojmowania   świata   zarówno   w   przypadku   naukowców,   jak   i 

nienaukowców. Podobnie jak w poprzednich wiekach i obecnie pojawiają się propozycje, aby te 

najnowsze zdobycze techniki posłużyły jako model działania kosmosu. I tak niektórzy naukowcy 

wysuwali tezę, abyśmy pojmowali przyrodę jako proces obliczeniowy. Muzyka sfer niebieskich i 

Wszechświat jako mechanizm zegarowy zostały zastąpione metaforą „kosmicznego komputera”, 

w której cały Wszechświat uważany jest za gigantyczny proces przetwarzania informacji. W 

ramach tego poglądu prawa przyrody można utożsamić z programem tego komputera, a rozwój 

wydarzeń w świecie stanowiłby rezultat jego działania. Warunki początkowe panujące u narodzin 

Wszechświata odgrywałyby tu rolę danych wejściowych.

Historycy uznają obecnie, że współczesna koncepcja komputera miała swój początek w 

pionierskich   pracach   ekscentrycznego   angielskiego   wynalazcy,   Charlesa   Babbage'a.   Babbage 

urodził się w 1791 roku pod Londynem jako syn bogatego bankiera, którego rodzina pochodziła 

z miejscowości Totnes w hrabstwie Devonshire. Już w dzieciństwie mały Babbage wykazywał 

duże   zainteresowanie   urządzeniami   mechanicznymi.   Nauczył   się   samodzielnie   matematyki   z 

książek, jakie wpadły mu w ręce, i w 1810 roku, gdy rozpoczął studia w Cambridge, miał już 

wyrobione własne podejście do tego przedmiotu i zamierzał rzucić wyzwanie ortodoksyjnemu 

systemowi jego nauczania w Wielkiej Brytanii. Wraz ze swym długoletnim przyjacielem Johnem 

Herschelem, synem znanego astronoma Williama Herschela (który w 1781 roku odkrył planetę 

Uran),   Babbage   założył   Analytical   Society.   Członkowie   tego   towarzystwa,   pozostając   pod 

wielkim wrażeniem potęgi francuskiej nauki i techniki, uważali, że wprowadzenie w Cambridge 

nauczania   matematyki   na   sposób   praktykowany   we   Francji   będzie   pierwszym   krokiem   w 

rewolucji   techniczno-przemysłowej   w   Wielkiej   Brytanii.   Towarzystwo   popadło   w   konflikt   z 

działaczami   politycznymi   w   Cambridge,   którzy   uważali   Babbage'a   i   jego   kolegów   za 

niebezpiecznych radykałów.

Po opuszczeniu Cambridge Babbage ożenił się i zamieszkał w Londynie, utrzymując się z 

własnego  majątku.   Nadal  był   pełen  podziwu  dla  osiągnięć   Francji  w  matematyce  i  naukach 

przyrodniczych, do czego przyczyniła się także jego osobista znajomość z rodziną Bonaparte; 

background image

miał też wiele kontaktów z naukowcami z kontynentu. W tym czasie zaczęły go interesować 

eksperymenty z maszynami  liczącymi; udało mu się otrzymać od rządu fundusze na budowę 

urządzenia,   któremu   nadał   nazwę   Maszyny   Różnicowej  (Difference   Engine),  był   to   rodzaj 

arytmometru.   Miała   ona   służyć   do   wyliczania   tablic   matematycznych,   astronomicznych   i 

nawigacyjnych  przy mniejszym  nakładzie pracy i bez popełnianych  przez człowieka błędów. 

Babbage skonstruował pomniejszony, działający model Maszyny Różnicowej, lecz rząd angielski 

wstrzymał finansowanie w 1833 roku i pełny projekt nie został zrealizowany. Był to bodajże 

jeden   z   pierwszych   przykładów   niedostrzegania   przez   rząd   celowości   długoterminowego 

wspierania działalności badawczej. (Muszę w tym miejscu przyznać, że, przynajmniej w Wielkiej 

Brytanii,   od   lat   trzydziestych   ubiegłego   wieku   niewiele   się   zmieniło).   Ostatecznie   Maszyna 

Różnicowa oparta na pomyśle Babbage'a została zbudowana w Szwecji, skąd następnie zakupił 

ją rząd angielski.

Niezrażony   tym   niepowodzeniem   Babbage   wymyślił   o   wiele   potężniejsze   urządzenie 

obliczeniowe,   uniwersalny   komputer,   nazwany   przez   niego   Maszyną   Analityczną,   która   jest 

obecnie uznawana za protoplastę współczesnych komputerów pod względem struktury i zasady 

działania. Babbage poświęcił znaczną część swego majątku na konstruowanie kolejnych wersji 

tej Maszyny, lecz żadnej nie udało mu się zrealizować do końca.

Babbage był porywczym, kłótliwym, wzbudzającym liczne kontrowersje człowiekiem i 

wielu mu współczesnych uważało go za wariata. Niemniej jednak przypisuje mu się wynalezienie 

między   innymi   szybkościomierza,   oftalmoskopu,   przedniego   zderzaka   dla   lokomotyw, 

podwieszonego   podajnika   pieniędzy   dla   sklepów   i   systemu   kodowania   światła   w   latarniach 

morskich.   Jego   zainteresowania   obejmowały   politykę,   ekonomię,   filozofię   i   astronomię. 

Rozważania   nad   istotą   procesów   obliczeniowych   doprowadziły   Babbage'a   do   idei,   że 

Wszechświat   może   być   także   uważany   za   rodzaj   komputera,   przy   czym   prawa   przyrody 

odgrywałyby rolę programu, co, jak zobaczymy, było wyjątkowo dalekosiężną wizją.

Mimo jego ekscentryczności, talenty Babbage'a zostały uznane poprzez powierzenie mu 

katedry   matematyki   w   Cambridge,   którą   niegdyś   piastował   Newton.   W   charakterze 

historycznego   przyczynku   warto   wspomnieć,   że   dwaj   synowie   Babbage'a   wyemigrowali   do 

Adelaide w południowej Australii, zabierając ze sobą egzemplarze jego maszyn. Natomiast w 

Muzeum Nauki w Londynie zrekonstruowano naturalnej wielkości Maszynę Różnicową według 

oryginalnego   projektu   Babbage'a,   aby   dowieść,   że   jest   ona   w   stanie   wykonywać   obliczenia 

background image

zgodnie ze swym przeznaczeniem. A w 1991 roku dwusetna rocznica urodzin Babbage'a (która 

nota  bene  przypadała  jednocześnie  z  rocznicą   urodzin  Faradaya  i  rocznicą   śmierci  Mozarta) 

została   uczczona   przez   rząd   Jej   Królewskiej   Mości   wydaniem   okolicznościowych   znaczków 

pocztowych.

Po śmierci Babbage'a w 1871 roku jego prace uległy zapomnieniu i dopiero w latach 

trzydziestych  naszego wieku, dzięki  wyobraźni  innego niezwykłego  Anglika,  Alana Turinga, 

dokonał się na tym polu dalszy postęp. Turingowi i amerykańskiemu matematykowi Johnowi 

von   Neumannowi   przypisuje   się   stworzenie   teoretycznych   podstaw   działania   współczesnego 

komputera.   Zasadnicze   znaczenie   w   ich   pracach   miało   pojęcie   „uniwersalnego   komputera”, 

automatu   zdolnego   do   wykonania   każdej   obliczalnej   funkcji   matematycznej.   Aby   wyjaśnić 

znaczenie   pojęcia   uniwersalnej   obliczalności,   należy   cofnąć   się   do   roku   1900   do   słynnego 

referatu matematyka Davida Hilberta, w którym przedstawił on to, co uważał za dwadzieścia trzy 

najistotniejsze   problemy   matematyczne   do   rozwiązania.   Jednym   z   nich   było   pytanie,   czy 

możliwe jest znalezienie ogólnej procedury dowodzenia twierdzeń matematycznych.

Hilbert   był   świadom,   że   dziewiętnasty   wiek   przyniósł   szereg   niepokojących   odkryć 

matematycznych, a niektóre z nich wydawały się zagrażać niesprzeczności samej matematyki. 

Były to problemy związane z pojęciem nieskończoności i rozmaite logiczne paradoksy oparte na 

samoreferencji, które później krótko omówię. W odpowiedzi na te wątpliwości Hilbert wezwał 

matematyków   do   znalezienia   systematycznej   procedury   pozwalającej   w   skończonej   liczbie 

kroków stwierdzić, czy dane twierdzenie matematyczne jest prawdziwe czy fałszywe. Nikt w 

owym   czasie   nie   wydawał   się   wątpić,   że   taka   procedura   istnieje,   jakkolwiek   praktyczne   jej 

podanie   mogło   nastręczać   trudności.  Niemniej   jednak  można   sobie  było  wyobrazić,  że  jakiś 

pojedynczy człowiek lub grupa ludzi jest w stanie zweryfikować każdą matematyczną hipotezę 

poprzez ślepe wykonywanie ustalonego ciągu operacji aż do skutku. W istocie, można by się 

obyć   nawet   bez   ludzi,   gdyż   taką   procedurę   dałoby   się   zautomatyzować   i   cały  ciąg   operacji 

realizowany byłby przez maszynę, która po jego zakończeniu drukowałaby otrzymany wynik - 

„prawda” lub „fałsz”.

Widziana w ten sposób matematyka staje się dyscypliną całkowicie formalną, czymś w 

rodzaju   gry   polegającej   na   manipulowaniu   symbolami   według   wcześniej   ustalonych   reguł   i 

znajdowaniu   związków   tautologicznych.   Nie   potrzebuje   ona   żadnych   odniesień   do   świata 

fizycznego. Prześledźmy to na przykładzie. Gdy wykonujemy działanie matematyczne, takie jak 

background image

(5   x   8)   6   =   34,   postępując   według   prostych   reguł   otrzymujemy   wynik   34.   Aby   otrzymać 

prawidłowy wynik, nie musimy rozumieć samych reguł, ani wiedzieć, skąd się one wzięły. W 

istocie, nie musimy nawet wiedzieć, co symbole, którymi się posługujemy, takie jak 5 czy x

naprawdę   znaczą.   Jeśli   tylko   rozróżniamy   poszczególne   symbole   i   trzymamy   się   reguł, 

otrzymamy prawidłowy wynik. Fakt, że obliczenie możemy przeprowadzić na kieszonkowym 

kalkulatorze, świadczy o tym, iż procedura ta da się wykonać całkowicie na ślepo.

Kiedy dzieci  zaczynają  naukę arytmetyki,  potrzebują  odnosić  poznawane symbole  do 

konkretnych obiektów otaczającego ich świata, więc początkowo liczą na palcach lub liczydłach. 

W późniejszych latach jednak dzieci na ogół potrafią już przeprowadzać operacje matematyczne 

w sposób całkowicie abstrakcyjny, do tego stopnia, że używają x i y zamiast konkretnych liczb. 

Ci, którzy podejmują naukę na wyższym poziomie, poznają inne rodzaje liczb (np. zespolone) i 

działań matematycznych (np. mnożenie macierzy), które w żaden oczywisty sposób nie wiążą się 

z tym, co znamy z rzeczywistego świata. Mimo to studenci bez trudu uczą się manipulowania 

abstrakcyjnymi symbolami oznaczającymi te niezwyczajne obiekty i działania, nie zastanawiając 

się nawet nad tym, co one naprawdę, jeśli w ogóle, znaczą. W ten sposób matematyka w coraz 

większym   stopniu   staje   się   czysto   formalnym   manipulowaniem   symbolami.   Może   się   wręcz 

wydawać, że matematyka to nic innego, jak manipulowanie symbolami. Taki pogląd zwany jest 

„formalizmem”.

Mimo jej pozornej możliwości formalistycznej interpretacji matematyki został zadany w 

1931   roku   poważny   cios.   Tego   roku   austriacki   logik   i   matematyk   Kurt   Godeł   dowiódł 

zdumiewającego   twierdzenia,   że   w   matematyce   istnieją   zdania,   których   prawdziwości   lub 

fałszywości   nie   da   się   udowodnić   poprzez   żadną   systematyczną   procedurę.   Było   to   zaiste 

twierdzenie  nie do przejścia, ponieważ wykazywało  nieodwołalnie,  że czegoś  w matematyce 

naprawdę   nie   da   się   zrobić,   nawet   w   zasadzie.   Fakt,   że   w   matematyce   istnieją   zdania 

nierozstrzygalne, stanowił wielki szok, gdyż wydawał się podważać całe logiczne podstawy tej 

dyscypliny.

Twierdzenie Godła wpisuje się w całą konstelację paradoksów związanych z pojęciem 

samoreferencji.   Jako   proste   wprowadzenie   w   tę   zawikłaną   tematykę   rozważmy   niepokojące 

zdanie: „To zdanie jest kłamstwem”. Jeżeli wypowiedź ta jest prawdziwa, to jest ona fałszywa; a 

jeżeli jest fałszywa, to jest prawdziwa. Takich paradoksalnych wypowiedzi odnoszących się do 

samych siebie można z łatwością przytoczyć wiele; są one niezwykle intrygujące i zastanawiały 

background image

ludzi od stuleci. Na przykład w średniowieczu formułowano tę antynomię w następujący sposób:

Sokrates: „To, co Platon zaraz powie, jest kłamstwem”.

Platon: „Sokrates właśnie powiedział prawdę”.

 Wielki matematyk i filozof Bertrand Russel wykazał, że istnienie tego typu paradoksów 

uderza w samą istotę logiki i podważa wszelkie uczciwe próby oparcia matematyki w sposób 

ścisły na podstawach logicznych. Godeł poszedł jeszcze dalej i w niezwykle genialny sposób 

zastosował   samozwrotność   w   oniesieniu   do   całej   matematyki,   rozważając   związki   między 

opisem   matematyki   a   samą   matematyką.   Jest   to   łatwo   powiedzieć,   lecz   w   rzeczywistości 

rozumowanie Godła było długie i bardzo zawiłe. Aby wyrobić sobie jednak pojęcie, na czym ono 

polegało,   wyobraźmy   sobie,   że   wypisujemy   zdania   matematyczne   opatrując   je   kolejnymi 

liczbami naturalnymi: l, 2, 3, ... Tworzeniu ciągu zdań stanowiącego twierdzenie matematyczne 

odpowiadałoby w takim przypadku połączenie przypisanych im liczb. W ten sposób operacjom 

logicznym przeprowadzanym na zdaniach matematyki odpowiadają działania samej matematyki. 

Stanowi   to   istotę   samozwrotności,   na   której   opiera   się   dowód   twierdzenia   Godła.   Poprzez 

utożsamienie opisu z tym, co jest opisywane, tj. ustanowienie odpowiedniości zdań opisujących 

matematykę   ze   zdaniami   samej   matematyki,   Godeł   odkrył   antynomialną   pętlę   typu 

russelowskiego, która w nieunikniony sposób prowadziła do istnienia zdań nierozstrzygalnych. 

John Barrow zauważył  ironicznie,  że jeśli przez religię rozumieć  będziemy system myślowy 

wymagający wiary w niedowodliwe prawdy,  to matematyka  jest jedyną  religią,  która jest w 

stanie dowieść, iż jest religią!

Aby wyjaśnić kluczową ideę, na której zasadza się twierdzenie Godła, posłużę się krótką 

historyjką. W pewnym dalekim kraju grupa matematyków, która nie słyszała nigdy o Godłu, 

doszła do wniosku, że możliwa jest jednak systematyczna procedura pozwalająca na nieomylne 

stwierdzenie   prawdziwości   lub   fałszywości   każdego   sensownego   zdania   matematycznego,   i 

zabrała się do wykazania tego. Procedura ta mogła być wykonywana przez człowieka, grupę 

łudzi,   maszynę,   czy   też   jakąkolwiek   kombinację   tych   elementów.   Nikt   nie   wiedział,   na   co 

zdecydowali się matematycy, gdyż ich system umieszczony był wewnątrz olbrzymiego budynku 

uniwersytetu   przypominającego   świątynię,   do   którego   wejście   osobom   postronnym   było 

wzbronione.   W   każdym   razie   system   nazywał   się   Tom.   By  wypróbować   możliwości   Toma, 

wprowadzano do niego kolejno najróżniejsze skomplikowane zdania logiczne i matematyczne i 

po krótkiej chwili otrzymywano odpowiedź: prawda, prawda, fałsz, prawda, fałsz, ... W krótkim 

background image

czasie sława Toma rozeszła się po całym kraju. Do laboratorium zjeżdżało coraz więcej ludzi, 

którzy na wszelkie sposoby starali się wynaleźć problem na tyle trudny, aby zapędzić Toma w 

kozi   róg.   Nikomu   się   to   nie   udawało.   Twórcy   Toma   nabrali   takiego   przekonania   o   jego 

nieomylności, że namówili króla, aby ufundował nagrodę dla tego, komu udałoby się pokonać 

Toma   w   jego   niewiarygodnych   zdolnościach   analitycznych.   Pewnego   dnia   na   uniwersytecie 

zjawił się jakiś przybysz z innego kraju z dużą kopertą i poprosił, aby pozwolono mu zmierzyć 

się z Tomem o przyobiecaną nagrodę. Wewnątrz koperty była kartka papieru z wypisanym na 

niej zdaniem dla Toma. Zdanie to, które oznaczymy tutaj literą Z (od „zdanie”) brzmiało po 

prostu: „Tom nie może uznać tego zdania za prawdziwe”.

Zdanie Z zostało jak zwykle przekazane Tomowi. Nie upłynęło kilka sekund, jak Tom 

zaczął się zachowywać dziwnie. Po pół minuty z budynku wybiegł ktoś z obsługi i oznajmił, że 

Toma trzeba było wyłączyć z przyczyn technicznych. Cóż takiego się stało? Załóżmy, że Tom 

miałby roztrzygnąć, iż Z jest prawdziwe. Oznaczałoby to, że zdanie „Tom nie może uznać tego 

zdania za prawdziwe” zostałoby sfalsyfikowane, ponieważ Tom to właśnie zrobił. Lecz skoro Z 

zostało sfalsyfikowane, nie może być prawdą. Zatem jeśli Tom orzeknie „prawda” o zdaniu Z, 

wniosek ten będzie fałszywy,  co przeczy jego głoszonej nieomylności. Toteż Tom nie może 

uznać   tego   zdania   za   prawdziwe.   W   ten   sposób   doszliśmy   do   wniosku,   że   Z   jest   jednak 

prawdziwe. Jednak dochodząc do tego wniosku wykazaliśmy, że Tom nie może dojść do tego 

samego wniosku. Oznacza to, że wiemy, że coś jest prawdziwe, lecz Tom nie może tego uznać za 

prawdziwe. W tym tkwi istota dowodu Godła, że zawsze będą istniały pewne zdania, których 

prawdziwości nie można udowodnić. Ów podróżny, wiedząc o tym, z łatwością skonstruował 

takie zdanie i zgarnął nagrodę.

Należy   jednak   pamiętać,   że   odkrycie   Godła   dotyczyło   ograniczeń   związanych   z 

aksjomatyczną metodą dowodzenia twierdzeń, a nie samych zdań, których miałoby się dowodzić. 

Zdanie, którego prawdziwości nie da się dowieść w danym systemie aksjomatów, zawsze może 

być samo uznane za aksjomat i dołączone do systemu. W tak powiększonym systemie będą z 

kolei istnieć inne zdania niedowodliwe i tak dalej.

Twierdzenie Godła stanowiło druzgocący cios dla programu formalistów, niemniej idea 

czysto mechanicznego rozstrzygania prawdziwości zdań matematycznych nie została całkowicie 

zarzucona.   Może   niedowodliwe   zdania   są   tylko   rzadkimi   wynaturzeniami,   które   dałyby   się 

oddzielić od reszty logiki i matematyki? Gdyby udało się znaleźć jakąś metodę odróżnienia zdań 

background image

niedowodliwych od dowodliwych, w przypadku tych ostatnich stwierdzanie ich prawdziwości 

lub   fałszywości   nadal   byłoby   zawsze   możliwe.   Jednakże,   czy   możliwe   jest   podanie 

systematycznej   procedury   pozwalającej   na   nieomylne   rozpoznawanie   i   odrzucanie   zdań 

niedowodliwych? Zadanie to zostało podjęte w połowie lat trzydziestych przez Alonzo Churcha, 

współpracownika von Neumanna z Princeton, który rychło stwierdził, że nawet ten skromniej 

wyznaczony cel jest nieosiągalny,  przynajmniej w skończonej liczbie kroków. Innymi słowy, 

możemy  formułować  zdania  matematyczne,  które   są  potencjalnie  prawdziwe  lub   fałszywe,  i 

możemy wdrożyć systematyczną procedurę rozstrzygającą o ich prawdziwości, lecz nie jesteśmy 

w stanie poznać wyników tej procedury, gdyż nigdy się ona nie skończy.

background image

Nieobliczalność

Problem ten  został  również podjęty,  zupełnie  niezależnie  i z całkowicie  innej strony, 

przez Alana Turinga, gdy był  jeszcze studentem w Cambridge. Matematycy często mówią o 

„mechanicznej”   procedurze   rozwiązywania   problemów   matematycznych,   „za   naciśnięciem 

guzika”. Turinga fascynowało, czy można by naprawdę zbudować maszynę, która by to robiła. 

Taka  maszyna  byłaby w stanie rozstrzygać  o prawdziwości zdań matematycznych  w sposób 

całkowicie   automatyczny,   bez   udziału   człowieka,   poprzez   niewolnicze   trzymanie   się 

deterministycznego ciągu instrukcji. Lecz jak zbudować takie urządzenie? Na jakiej zasadzie 

miałoby  ono działać?  Turing  wyobraził  je sobie  na kształt  maszyny  do pisania,  wypisującej 

symbole na kartce, lecz ponadto będącej w stanie odczytywać napisane znaki i w razie potrzeby 

je wymazywać. Ostatecznie doszedł do koncepcji nieskończenie długiej taśmy, podzielonej na 

kwadratowe   pola,   przy   czym   w   każdym   polu   znajduje   się   jeden   znak.   Maszyna   miałaby 

przesuwać taśmę o jedno pole, czytać zawartość pola i w zależności od tego, co przeczytała, 

pozostawać w tym samym stanie albo przechodzić w nowy stan. W każdym wypadku jej reakcja 

byłaby   czysto   automatyczna,   wyznaczona   przez   jej   konstrukcję.   Maszyna   bądź   zostawiałaby 

przeczytany   symbol   bez   zmian,   bądź   wymazywałaby   go   i   wpisywała   inny,   a   następnie 

przesuwałaby taśmę o jedno pole i cały proces powtarzałby się od nowa.

W   istocie   maszyna   Turinga   jest   tylko   urządzeniem   pozwalającym   na   przekształcanie 

jednego ciągu symboli w inny ciąg na podstawie ustalonych wcześniej zasad. W razie potrzeby 

zasady te można by przedstawić w postaci tabelki, z której dałoby się odczytać, jak zachowa się 

maszyna w kolejnym kroku. Tak więc w gruncie rzeczy nie trzeba budować prawdziwej maszyny 

z metalu i papierowej taśmy, aby przekonać się, jak ona działa. Łatwo, na przykład, wypisać 

tabelkę  odpowiadającą maszynie  realizującej  dodawanie liczb. Jednakże Turing stawiał sobie 

bardziej ambitne cele. Czyż jego maszyna nie mogłaby urzeczywistnić zamierzonego przez Hil-

berta programu mechanizacji matematyki?

Jak   już   wspominałem,   rozwiązywanie   zadań   matematycznych   na   drodze   stosowania 

czysto   mechanicznej   procedury   znane   jest   doskonale   już   uczniom   w   szkole.   Typowym 

przykładem   może   być   przekształcanie   ułamka   na   postać   dziesiętną   czy   też   wyciąganie 

pierwiastka kwadratowego z jakiejś liczby.  Każdy skończony ciąg czynności prowadzący do 

rozwiązania jakiegoś problemu, mającego na przykład postać liczby, niekoniecznie całkowitej, 

background image

może być w oczywisty sposób zrealizowany poprzez maszynę Turinga. Ale co z procedurami o 

nieskończonej   liczbie   kroków?   Na   przykład,   rozwinięcie   dziesiętne   liczby  n  stanowi 

nieskończony, na pozór zupełnie przypadkowy ciąg cyfr. Niemniej jednak można wyliczyć z 

dowolną liczbą miejsc po przecinku na podstawie prostej, skończonej procedury. Turing nazywał 

daną liczbę „obliczalną”, jeżeli przy stosowaniu się do skończonego zestawu instrukcji można 

wyliczyć tę liczbę z dowolnie wielką dokładnością, nawet jeżeli sama liczba jest nieskończenie 

długa.

Turing wyobraził sobie, że sporządzona została lista wszystkich liczb obliczalnych. Lista 

ta oczywiście miałaby nieskończenie wiele pozycji i na pierwszy rzut oka mogłoby się wydawać, 

że każda możliwa do pomyślenia liczba powinna być w niej zawarta. A jednak tak nie jest. 

Turing pokazał, że zakładając istnienie takiej listy można udowodnić istnienie liczb, które z całą 

pewnością nie są w niej zawarte. Ponieważ lista ta zawierała wszystkie liczby obliczalne, te nowe 

liczby trzeba określić mianem nieobliczalnych. Co to znaczy, że jakaś liczba jest nieobliczalna? Z 

definicji   jest   to   liczba,   która   nie   może   być   otrzymana   w   wyniku   skończonej   mechanicznej 

procedury, nawet po wykonaniu nieskończonej liczby kroków. Turing pokazał również, w jaki 

sposób lista liczb obliczalnych może posłużyć do generowania liczb nieobliczalnych.

Oto schemat jego rozumowania. Wyobraźmy sobie, że zamiast liczb mamy nazwiska. 

Sporządzamy   listę   sześcioliterowych   nazwisk;   powiedzmy,   Sayers,   Atkins,   Piąuet,   Mather, 

Belamy, Panoff. Potem przeprowadzamy następującą prostą procedurę. Bierzemy pierwszą literę 

pierwszego nazwiska i zastępujemy ją następną literą alfabetu. W tym przypadku będzie to „T”. 

To samo robimy z drugą literą drugiego nazwiska, trzecią literą trzeciego, i tak dalej. Ostatecznie 

otrzymujemy w ten sposób nazwisko „Turing”. Możemy być absolutnie pewni, że nazwisko to 

nie występowało w naszej liście, gdyż z konieczności różni się od każdego zawartego w niej 

nazwiska o jedną literę. Nawet nie widząc wyjściowej listy, wiemy, że Turinga na niej nie było. 

W przypadku listy liczb obliczalnych Turing posłużył się analogicznym sposobem, polegającym 

na zmianie w każdej liczbie jednej cyfry na miejscu odpowiadającym pozycji tej liczby na liście, 

aby wykazać istnienie liczb nieobliczalnych. Naturalnie, lista Turinga zawierała nieskończenie 

wiele nieskończenie długich liczb, lecz istota przeprowadzonego rozumowania była taka sama.

Już   z   samego   istnienia   liczb   nieobliczalnych   wynika,   że   muszą   istnieć   także 

nierozstrzygalne   twierdzenia   matematyczne.   Wyobraźmy   sobie   nieskończoną   listę   liczb 

obliczalnych.   Każda   z   nich   może   być   wygenerowana   przez   jakąś   maszynę   Turinga.   Jedna 

background image

maszyna obliczałaby pierwiastek kwadratowy, inna logarytmy, i tak dalej. Jak się przekonaliśmy, 

nawet mając do dyspozycji nieskończenie wiele takich maszyn, nie jesteśmy w stanie otrzymać w 

ten sposób wszystkich  liczb,  jako że istnieją także  liczby nieobliczalne,  które nie mogą  być 

wygenerowane w wyniku mechanicznej procedury. Turing zauważył, że w zasadzie nie potrzeba 

nieskończenie wielu maszyn do wygenerowania takiej listy; wystarczy jedna. Pokazał, iż można 

zbudować   uniwersalną   maszynę   Turinga,   mogącą   symulować   działanie   wszystkich   innych 

maszyn. Możliwość istnienia takiej uniwersalnej maszyny jest dość oczywista. Każdą maszynę 

można określić przez podanie systematycznej procedury prowadzącej do jej zbudowania, czy to 

będą   maszyny   pralnicze,   maszyny   do   szycia,   maszyny   liczące   czy   też   maszyny   Turinga. 

Podstawowe znaczenie ma tu fakt, że maszyna Turinga sama jest maszyną wykonującą określoną 

procedurę.   Zatem   uniwersalnej   maszynie   Turinga   można   polecić,   aby   wpierw   odczytywała 

specyfikację   danej   maszyny,   następnie   rekonstruowała   zasady   jej   działania,   i   ostatecznie 

wykonywała jej funkcję. Zatem oczywiste jest, że można skonstruować uniwersalną maszynę do 

wykonywania   wszelkich   operacji   matematycznych.   Nie   trzeba   mieć   oddzielnie   maszyny 

dodającej do dodawania, maszyny mnożącej do mnożenia, i tak dalej. Jedna maszyna może robić 

wszystko. Myśl ta była już zawarta w projekcie Maszyny Analitycznej Babbage'a, lecz trzeba 

było   dopiero   upływu   prawie   stu   lat,   geniuszu   Alana   Turinga   i   potrzeb   zrodzonych   podczas 

drugiej  wojny światowej, aby koncepcja współczesnego  komputera  ostatecznie  doczekała  się 

realizacji.

Może się wydawać zdumiewające, że maszyna, której działanie sprowadza się wyłącznie 

do odczytywania i zapisywania symboli oraz przesuwania i zatrzymywania taśmy, jest w stanie 

realizować   wszelkie   możliwe   procedury   matematyczne,   niezależnie   od   tego,   jak   bardzo   są 

abstrakcyjne   i   skomplikowane.   Niemniej   jednak   przekonanie   to,   zwane   hipotezą   Churcha-

Turinga, podzielane jest przez większość matematyków. Wynika z niego, że niezależnie od tego, 

o jaki problem matematyczny chodzi, jeśli nie może on być rozwiązany przez maszynę Turinga, 

to nie może być rozwiązany w ogóle. Ważną implikacją hipotezy Churcha-Turinga jest to, że 

szczegóły   konstrukcyjne   konkretnego   komputera   są   zupełnie   nieistotne.   Jeśli   tylko   logiczne 

zasady jego działania są te same, co w przypadku uniwersalnej maszyny Turinga, wyniki będą 

zawsze takie same. Innymi słowy, komputery są w stanie wzajemnie symulować swoje działanie. 

Prawdziwe  komputery,  którymi  się   dzisiaj   posługujemy,   wyposażone   są  w  ekrany,   drukarki, 

plotery, stacje dysków i inne wymyślne urządzenia, jednakże logiczna zasada ich działania nadal 

background image

odpowiada idei uniwersalnej maszyny Turinga.

W połowie lat trzydziestych, gdy Turing prowadził swoje badania, wszystkie te ważne 

praktyczne   zastosowania   jego   idei   były   jeszcze   sprawą   przyszłości.   Jemu   samemu   chodziło 

przede  wszystkim  o  program   Hilberta  mechanizacji   matematyki,  z   którym  zagadnienie  liczb 

obliczalnych i nieobliczalnych ma bezpośredni związek. Rozważmy (nieskończoną) listę liczb 

obliczalnych, z których każda generowana jest przez jakąś maszynę Turinga. Wyobraźmy sobie 

uniwersalną maszynę Turinga, której powierzono zadanie sporządzenia tej samej listy poprzez 

kolejne symulowanie działania każdej z tych maszyn. Pierwszym krokiem takiej maszyny byłoby 

odczytanie szczegółów konstrukcyjnych danej maszyny. Rodzi się wtedy od razu pytanie: czy 

uniwersalna maszyna Turinga jest w stanie rozstrzygnąć na podstawie tych szczegółów, jeszcze 

przed przeprowadzeniem samych obliczeń, czy dana liczba zostanie faktycznie obliczona, czy też 

obliczenia   zawieszą   się   w   jakimś   miejscu?   Przez   zawieszenie   rozumiemy   tu,   że   obliczenia 

zapętliły się i maszyna nie drukuje żadnego wyniku. Jest to tak zwany „problem zatrzymania” - 

czy można z góry przewidzieć, na podstawie znajomości szczegółów procedury obliczeniowej, 

czy maszyna obliczy po kolei wszystkie cyfry danej liczby i zatrzyma się, czy też wpadłszy w 

pętlę, nie zatrzyma się nigdy.

Turing wykazał, że na problem zatrzymania odpowiedź jest zdecydowanie negatywna. 

Posłużył   się   przy   tym   sprytnym   rozumowaniem.   Przypuśćmy,   powiedział,   że   maszyna 

uniwersalna jest w stanie rozwiązać problem zatrzymania. Co zatem stanie się, gdy maszyna ta 

spróbuje symulować samą siebie? W ten sposób znów wróciliśmy do problemu samoreferencji. 

Jak można tego oczekiwać, rezultatem jest zawieszenie się obliczeń. Usiłując symulować samą 

siebie, maszyna  wpada w stan permanentnej pętli. Tak więc Turing doszedł do niezwykłego 

wniosku, będącego wariantem twierdzenia Godła o zdaniach nierozstrzygalnych: oto maszyna, 

która ma sprawdzić, czy dana procedura obliczeniowa nie zawiesi się, sama się zawiesza! W tym 

przypadku nierozstrzygalność dotyczy samych zdań nieroztrzygalnych: nie ma systematycznego 

sposobu pozwalającego rozstrzygnąć, czy dane zdanie jest rozstrzygalne czy nierozstrzygalne. 

Stanowiło   to   oczywiste   zaprzeczenie   możliwości   zamierzonej   przez   Hilberta   mechanizacji 

matematyki: twierdzenie, którego prawdziwości ani fałszywości nie sposób udowodnić poprzez 

systematyczną,   ogólną   procedurę.   Głębokie   znaczenie   wniosku   Turinga   zostało   obrazowo 

przedstawione   przez   Douglasa   Hofstadtera:   „Matematyka   przeniknięta   jest   na   wskroś 

nierozstrzygalnymi zdaniami, jak kawałek mięsa na stek przerośnięty jest włóknami chrząstki, 

background image

których nie da się wyciąć bez zniszczenia całego steku”.

background image

Dlaczego możliwa jest arytmetyka?

Wnioski Turinga zazwyczaj przytacza się w odniesieniu do matematyki i logiki. Niemniej 

jednak mówią nam one też coś o naturze rzeczywistego świata. W końcu, idea maszyny Turinga 

oparta   jest   na   naszym   intuicyjnym   pojmowaniu,   czym   w   ogóle   jest   maszyna,   a   rzeczywiste 

maszyny działają tylko dlatego, że umożliwiają im to prawa fizyki. Ostatnio fizyk teoretyczny z 

Oxfordu David Deutsch ogłosił tezę, że  obliczalność jest właściwie własnością empiryczną, to 

znaczy zależy w istocie od tego, jaki jest świat, a nie jest wynikiem jakiejś koniecznej prawdy 

logicznej. „Uzasadnienia, dlaczego możliwe  jest - pisze Deutsch - zbudowanie, na przykład, 

kalkulatorów elektronicznych czy też w ogóle wykonywanie obliczeń w pamięci, nie znajdziemy 

w obrębie samej matematyki i logiki. Jest to możliwe tylko dlatego, że prawa fizyki są akurat 

takie, iż dopuszczają istnienie fizycznej realizacji działań arytmetycznych, takich jak dodawanie, 

odejmowanie  i mnożenie. Gdyby tak nie było,  te tak znane nam rachunki byłyby  funkcjami 

nieobliczalnymi”.

Teza Deutscha jest zaiste frapująca. Operacje arytmetyczne, takie jak liczenie, wydają się 

nam tak wpisane w naturę rzeczy, że nie możemy wyobrazić sobie świata, w którym nie byłyby 

one możliwe. Dlaczego tak jest? Sądzę, że odpowiedzi należy doszukiwać się w historii i naturze 

matematyki.   Arytmetyka   dotyczyła   początkowo   czysto   praktycznych   aspektów   życia 

codziennego, takich jak pilnowanie, by nie zginęły owce ze stada, czy też elementarne rachunki. 

Jednakże na bazie tych podstawowowych działań dodawania, odejmowania i mnożenia nastąpił 

tak gwałtowny rozwój idei matematycznych i stały się one tak wyrafinowane, że ludzie stracili z 

oczu ich skromny praktyczny rodowód. Innymi słowy, matematyka zaczęła żyć swoim własnym 

życiem. Już w czasach Platona niektórzy filozofowie utrzymywali, że matematyce przysługuje 

niezależne   istnienie.   A   my   tak   bardzo   przywykliśmy   do   wykonywania   prostych   działań 

arytmetycznych, że z łatwością przychodzi nam wierzyć, iż muszą być one wykonywalne. Lecz 

w rzeczywistości ich wykonywalność zależy w zasadniczy sposób od natury świata fizycznego. 

Przykładowo,   czy   liczenie   miałoby   dla   nas   jakikolwiek   sens,   gdyby   nie   istniały   oddzielne 

przedmioty, jak monety lub owce?

Matematyk R.W. Hamming nie uznaje bynajmniej wykonywalności arytmetyki za rzecz 

oczywistą, uznając to za fakt dziwny i niewyjaśniony. „Próbowałem bez powodzenia - pisze - 

przekazać niektórym z moich przyjaciół moje zdumienie, że liczenie przy użyciu abstrakcyjnego 

background image

pojęcia liczby jest w ogóle możliwe i tak użyteczne. Czyż nie jest czymś niezwykłym, że sześć 

owiec   plus   siedem   owiec   daje   trzynaście   owiec,   i   sześć   kamieni   plus   siedem   kamieni   daje 

trzynaście kamieni? Czyż to nie cud, że Wszechświat jest tak urządzony, iż tak proste pojęcia 

abstrakcyjne jak liczba są możliwe?”.

Fakt, że własności obliczeniowe arytmetyki znajdują swe odbicie w realnym świecie, ma 

głębokie implikacje. Oznacza, że w pewnym  sensie świat fizyczny jest komputerem,  tak jak 

sądził   Babbage.   Albo,   co   bardziej   istotne,   iż   komputery   są   w   stanie   nie   tylko   symulować 

wzajemnie   swoje   działanie,   lecz   także   symulować   świat   fizyczny.   Oczywiście,   jesteśmy 

przyzwyczajeni do tego, że komputerów używa się do symulowania układów fizycznych; stąd w 

istocie   bierze   się   ich   ogromna   użyteczność.   Jednak   ta   możliwość   oparta   jest   na   głębokiej   i 

subtelnej własności świata. Mamy ewidentnie do czynienia z zasadniczą zgodnością pomiędzy 

prawami fizyki z jednej strony a obliczalnością funkcji matematycznych opisujących te właśnie 

prawa z drugiej strony. Nie jest to bynajmniej truizm. Natura praw fizyki pozwala na to, by 

pewne operacje matematyczne, takie jak dodawanie i mnożenie, były obliczalne. Stwierdzamy, 

że   wśród  tych   obliczalnych   operacji  były  takie,   które  opisują  (przynajmniej   w   przybliżeniu) 

prawa fizyki.

Czy   występowanie   tego   kręgu   wzajemnych   zależności   jest   czystym   zbiegiem 

okoliczności, czy też ta spójność jest czymś koniecznym? Czy świadczy to o jakichś głębszych 

związkach pomiędzy matematyką a rzeczywistością? Wyobraźmy sobie świat, w którym prawa 

fizyki są całkowicie odmienne, do tego stopnia, że nie istnieją odrębne przedmioty. Niektóre z 

operacji   matematycznych,   które   są   obliczalne   w   naszym   świecie,   nie   byłyby   obliczalne   w 

tamtym, i na odwrót. W tym drugim świecie mogą istnieć odpowiedniki maszyny Turinga, ale 

ich struktura i działanie byłyby na tyle odmienne, że nie potrafiłyby na przykład wykonywać 

podstawowych operacji arytmetycznych, choć być może mogłyby w tamtym świecie wykonywać 

operacje,   których   komputery   w   naszym   świecie   nie   są   w   stanie   wykonać   (na   przykład 

rozwiązywałyby Wielkie Twierdzenie Fermata).

Pojawia   się  teraz  szereg   interesujących   dodatkowych  pytań:   czy  prawa   fizyki   w  tym 

hipotetycznym alternatywnym świecie dawałyby się wyrazić w kategoriach obliczalnych operacji 

tego świata, czy też taka wewnętrzna spójność przysługuje tylko pewnej ograniczonej liczbie 

światów? A może wyłącznie naszemu światu? Czy na pewno wszystkie aspekty naszego świata 

dają się wyrazić poprzez operacje obliczalne? Czy możliwe są w ogóle procesy fizyczne, których 

background image

nie można symulować za pomocą maszyny Turinga? Tymi intrygującymi pytaniami dotyczącymi 

związku pomiędzy matematyką a światem realnym zajmę się następnym rozdziale.

background image

Matrioszki i sztuczne życie

Fakt,   że   uniwersalne   komputery   są   w   stanie   się   wzajemnie   symulować,   ma   istotne 

konsekwencje.   W   praktyce   oznacza   bowiem,   że,   przy   odpowiednim   zaprogramowaniu   i 

zapewnieniu   wystarczającej   ilości   pamięci,  zwykły   IBM  PC  może   doskonale  naśladować  na 

przykład potężnego Craya  pod względem wyników (a nie szybkości) obliczeń. Wszystko, co 

potrafi   zrobić   Cray,   potrafi   i   komputer   osobisty.   W   istocie   uniwersalny   komputer   nie   musi 

dorównywać stopniem skomplikowania nawet pecetowi; wystarczy, że składa się z szachownicy 

i kompletu pionków. Taki prosty system został po raz pierwszy rozpatrzony przez Stanisława 

Ulama i Johna von Neumanna w latach pięćdziesiątych jako przykład tak zwanej „teorii gier”.

Ulam i von Neumann pracowali w Los Alamos National Laboratory, gdzie prowadzono 

badania nad bombą atomową w ramach projektu Manhattan. Ulam uwielbiał grać w różne gry na 

komputerach, co było w tych czasach jeszcze wielką nowością. Jedna z takich gier polegała na 

tym, że pewne układy elementów zmieniane są według ustalonych reguł. Wyobraźmy sobie na 

przykład szachownicę z pionkami tworzącymi  na niej pewien układ. Można wtedy rozważać 

różne reguły, według których ten układ może być zmieniany. Przykładowo: z każdym polem 

szachownicy sąsiaduje osiem innych pól (łącznie z polami po przekątnej). Stan danego pola (to 

znaczy to, czy stoi na nim pionek, czy nie) pozostawiamy bez zmian, jeżeli na sąsiednich polach 

stoją dokładnie dwa pionki. Jeśli pole, na którym stoi pionek, sąsiaduje z trzema zajętymi polami, 

to pionek pozostawiamy;  we wszystkich innych przypadkach pole opróżnia się. Po wybraniu 

pewnego   początkowego   ułożenia   pionków   reguła   ta   zostaje   zastosowana   do   każdego   pola 

szachownicy, w wyniku czego otrzymujemy nieco odmienny układ pionków. Znowu stosujemy 

tę samą regułę i ułożenie pionków znowu się zmienia. Procedurę tę powtarza się wielokrotnie i 

obserwuje ewolucję struktury pionków na szachownicy.

Johna Conwaya, który w 1970 roku wynalazł podane powyżej reguły, z miejsca uderzyło 

bogactwo i różnorodność struktur, do jakich one prowadziły. Struktury pojawiały się i ginęły, 

ewoluowały,  poruszały się po szachownicy,  dzieliły i zlewały.  Pod wrażeniem  podobieństwa 

zachowania   się   tych   układów   do   żywych   organizmów   Conway   nazwał   swą   grę   „ŻYCIE”. 

Wkrótce stała się ona ulubioną rozrywką fanów komputerowych z całego świata. Do śledzenia 

ewolucji struktur nie potrzebna im była wcale szachownica; o wiele łatwiej było zaprogramować 

komputer   tak,   aby   wyświetlał   je   bezpośrednio   na   ekranie,   przy   czym   pojedynczy   piksel 

background image

(świecący punkt na ekranie) odpowiadał pionkowi. Niezwykle przystępny opis tej gry można 

znaleźć  w książce  The Recursive  Universe  Williama  Pounstone'a, zawierającej  również tekst 

programu dla wszystkich, którzy chcieliby zagrać w ŻYCIE na swoim własnym komputerze. 

Tych,   którzy   mają   komputer   Amstrad   PCW   8256,   na   jakim   piszę   właśnie   tę   książkę,   będą 

zapewne zainteresowani tym, że program do gry w ŻYCIE został fabrycznie wprowadzony do 

tego typu komputerów i można go uruchomić za pomocą paru prostych poleceń.

Można   potraktować   przestrzeń,   w   której   ewoluują   układy   punktów,   jako   model 

Wszechświata,   przy   czym   reguły   Conwaya   odpowiadałyby   prawom   fizyki,   a   upływ   czasu 

następuje   skokowo.   Wszystko,   co   wydarza   się   w   tym   świecie,   ma   charakter   ściśle 

deterministyczny:   każdy   kolejny   układ   jest   całkowicie   wyznaczony   przez   układ   go 

poprzedzający. Układ wyjściowy determinuje zatem wszystkie przyszłe układy, ad infinitum. Pod 

tym względem świat ŻYCIA odpowiada newtonowskiej wizji Wszechświata jako mechanizmu 

zegarowego. Faktycznie, mechanistyczny charakter gier tego typu zyskał im miano „automatów 

komórkowych”, przy czym przez komórki rozumie się tutaj odpowiednio pola lub punkty na 

ekranie.

Wśród   nieskończonej   różnorodności   form   występujących   w   ŻYCIU   są   takie,   które 

poruszając się zachowują swoją postać. Należą do nich tak zwane „szybowce”, złożone z pięciu 

punktów,   i   większe   obiekty,   zwane   „statkami   kosmicznymi”.   W   wyniku   zderzeń   tych   form 

powstają najróżniejsze struktury i formy odpadowe, w zależności od sytuacji. Szybowce mogą 

być wytwarzane przez „działo”, wyrzucające je kolejno jako strumień w regularnych odstępach 

czasu. Co ciekawe, działo może powstać w wyniku zderzenia trzynastu szybowców, tak więc 

szybowce rodzą szybowce. Innymi często spotykanymi formami są „bloki”, stacjonarne kwadraty 

złożone z czterech punktów, niszczące obiekty, które się z nimi zderzają. Dalej mamy bardziej 

destrukcyjne   „pożeracze”,   które   rozbijają   i   pochłaniają   przechodzące   w   pobliżu   obiekty,   a 

następnie odbudowują ewentualne ubytki, jakie spowodowało w nich takie spotkanie. Conway i 

jego   współpracownicy   odkryli,   że   w   ŻYCIU   występują   niewiarygodnie   bogate   i   złożone 

struktury, co niekiedy było sprawą przypadku, a niekiedy wymagało sporych umiejętności i dużej 

dozy   intuicji.   Niektóre   z   bardzo   interesujących   układów   wymagają   niezwykle   dokładnego 

zgrania olbrzymiej liczby złożonych obiektów i pojawiają się dopiero po wielu tysiącach kroków. 

Śledzenie tych bardziej zaawansowanych struktur ŻYCIA wymaga już komputerów o bardzo 

dużej mocy obliczeniowej.

background image

Świat ŻYCIA stanowi oczywiście jedynie blade odbicie rzeczywistości, a podobieństwo 

jego mieszkańców do istot żywych jest dość powierzchowne. Niemniej jednak struktura logiczna 

ŻYCIA kryje w sobie zdolność generowania struktur o dowolnym stopniu złożoności, w zasadzie 

nawet   tak   złożonych   jak   organizmy   biologiczne.   W   istocie   zainteresowanie   von   Neumanna 

automatami komórkowymi wzięło swój początek z jego dążenia do rozwikłania tajemnicy życia. 

Fascynowało   go,   czy   można   w   ogóle   zbudować   maszynę,   która   byłaby   zdolna   do 

samoreprodukcji, a jeśli tak, to jaka powinna być jej struktura i zasada działania. Gdyby taka 

maszyna  była  możliwa, to bylibyśmy w stanie pojąć zasady,  dzięki którym  organizmy żywe 

mogą się samoreprodukować.

Rozumowanie   von   Neumanna   opierało   się   na   pojęciu   „uniwersalnego   konstruktora”, 

analogicznego do pojęcia uniwersalnego komputera. Miałaby to być maszyna, którą można by 

zaprogramować tak, by produkowała każdą zadaną rzecz, podobnie jak maszynę Turinga można 

zaprogramować tak, by wykonywała dowolną obliczalną operację matematyczną. Von Neumann 

rozważał,   co   będzie,   gdy   zaprogramuje   się   uniwersalnego   konstruktora   tak,   aby   produkował 

samego siebie. Oczywiście, aby można było mówić o pełnej samoreprodukcji, maszyna powinna 

nie tylko wykonywać kopię samej siebie, ale i kopię programu prowadzącego do wykonania 

takiej kopii; w przeciwnym przypadku maszyna pochodna byłaby „bezpłodna”. Pojawia się tu 

wyraźne   niebezpieczeństwo   postępowania   w   nieskończoność,   lecz   von   Neumann   wpadł   na 

sprytny sposób obejścia tego problemu: uniwersalny konstruktor powinien być wyposażony w 

specjalny   mechanizm   regulujący.   Gdy   konstruktor   wyprodukuje   już   kopię   samego   siebie 

(zawierającą   oczywiście   także   kopię   mechanizmu   regulującego),   mechanizm   ten   wyłącza 

program i pozwala go traktować jako jeszcze jedną część urządzenia. Maszyna von Neumanna 

wykonuje zatem także kopię programu i umieszcza go w nowej maszynie, która w ten sposób nie 

różni   się   już   niczym   od   maszyny   macierzystej   i   może   uruchomić   swój   własny   program 

reprodukcji.

Początkowo   von   Neumann   zamierzał   zbudować   prawdziwą   maszynę   o   takich 

własnościach,   „z   drucików   i   śrubek”,   lecz   Ulam   przekonał   go,   że   lepiej   będzie   zbadać 

teoretycznie   zachowanie   automatów   komórkowych   pod   względem   występowania   struktur 

samoreprodukujących.   W  ten   sposób  maszyna   von  Neumanna   miałaby  być  jedynie  układem 

punktów świetlnych na ekranie czy też pionków na szachownicy, lecz nic to nie szkodzi, gdyż 

ważna jest jedynie logiczna i systemowa struktura takiej maszyny, a nie konkretny sposób jej 

background image

realizacji.   Po   żmudnych   badaniach   von   Neumannowi   i   jego   współpracownikom   udało   się 

wykazać,   że   zdolność   samoreprodukowania   się   faktycznie   pojawia   się   w   układach   powyżej 

pewnego stopnia złożoności; wymaga to jednak rozważania automatów komórkowych o regułach 

o   wiele   bardziej   skomplikowanych   niż   w   przypadku   ŻYCIA.   Zamiast   przypisywania   każdej 

komórce   zaledwie   jednego   z   dwóch   stanów   -   pusta   lub   pełna   -   automat   von   Neumanna 

dopuszczał   co   najmniej   dwadzieścia   jeden   możliwości.   Rzeczywiste   zbudowanie   automatu 

samoreprodukującego   było   zadaniem   beznadziejnym   -   uniwersalny   konstruktor   wraz   z 

mechanizmem   regulującym   i   pamięcią   musiałby   zajmować   co   najmniej   dwieście   tysięcy 

komórek - lecz ważne było to, że oto w zasadzie czysto mechaniczny system zdolny jest do 

samoreprodukcji.   W   jakiś   czas   po   tych   matematycznych   badaniach   von   Neumanna   nastąpił 

rozkwit biologii molekularnej: odkrycie struktury DNA w kształcie podwójnej helisy, odczytanie 

kodu genetycznego  i wyjaśnienie  podstawowych  zasad reprodukcji organizmów  na poziomie 

molekularnym.  Wkrótce stało się jasne, że przyroda stosuje się właśnie do logicznych  zasad 

odkrytych   przez   von  Neumanna.   Biolodzy   istotnie   znaleźli   wewnątrz   komórek   organicznych 

rzeczywiste molekuły będące odpowiednikami elementów maszyny von Neumanna.

Conwayowi   udało   się   również   pokazać,   że   w   grze   ŻYCIE   również   mogą   wystąpić 

struktury samoreprodukujące  się. Względnie  prosty schemat  produkowania szybowców  przez 

szybowce   nie   podpada   jednak   pod   tę   kategorię,   gdyż   nie   zachodzi   w   nim   powielanie 

uniwersalnego programu samoreprodukcji. Potrzeba czegoś o wiele bardziej skomplikowanego. 

Conway   rozważył   najpierw   zagadnienie   pokrewne:   czy   w   świecie   ŻYCIA   możliwe   jest 

zbudowanie   maszyny   Turinga   (tj.   uniwersalnego   komputera)?   Działanie   każdego   komputera 

uniwersalnego   opiera   się   na   logicznych   operacjach   koniunkcji   („I”),   alternatywy   („LUB”)   i 

negacji („NIE”). W zwykłym  elektronicznym komputerze operacje te są realizowane poprzez 

proste układy przełącznikowe, zwane bramkami logicznymi. Na przykład bramka „I” ma dwa 

przewody wejściowe i jeden przewód wyjściowy. Jeżeli w obu przewodach wejściowych pojawi 

się impuls elektryczny, to generowany jest impuls w przewodzie wyjściowym. Gdy brak sygnału 

na wejściu lub jest on podany tylko w jednym przewodzie, na wyjściu nie otrzymujemy żadnego 

impulsu. Komputer składa się z olbrzymiej liczby połączonych ze sobą elementów tego typu. 

Obliczenia   wykonywane   są   poprzez   przedstawienie   liczb   w   postaci   dwójkowej,   jako   ciągi 

jedynek i zer. Fizycznie jedynka odpowiada impulsowi prądu, a zero brakowi impulsu. Nie jest 

jednak   wcale   konieczne,   aby   obliczenia   realizowane   były   poprzez   układy   obwodów 

background image

elektrycznych. Każde urządzenie pozwalające na wykonanie tych samych operacji logicznych 

będzie  również odpowiednie do tego celu.  Mogą to być  równie dobrze kółka zębate  (jak w 

Maszynie Analitycznej Charlesa Babbage'a), wiązki światła laserowego czy też świetlne punkty 

na ekranie komputera.

Po wielu eksperymentach i rozważaniach teoretycznych Conway był w stanie wykazać, 

że   odpowiednie   układy   logiczne   mogą   być   rzeczywiście   zbudowane   w   świecie   ŻYCIA. 

Zasadnicza   idea   polegała   na   wykorzystaniu   ciągów   szybowców   do   reprezentowania   liczb   w 

postaci   dwójkowej.   Na   przykład,   liczba   1011010010   może   być   przedstawiona   poprzez 

zastąpienie każdej z jedynek szybowcem i pozostawienie miejsc wolnych zamiast zer. Bramki 

logiczne   można   wtedy   zrealizować   jako   strumienie   szybowców   krzyżujące   się   w   określony 

sposób. Tak zatem bramka „I” będzie generowała szybowiec tylko wtedy, gdy dojdą do niej 

równocześnie szybowce z obu strumieni wejściowych (co odpowiada operacji l + l -» 1). Aby to 

wykonać   i   zapewnić   wystarczającą   ilość   pamięci   dla   przechowania   informacji,   Conwayowi 

potrzeba  było  tylko  czterech  rodzajów  występujących  w  ŻYCIU struktur: szybowców, dział, 

pożeraczy i bloków.

Potrzeba było dużej dozy sprytnych  chwytów, aby odpowiednio rozmieścić wszystkie 

elementy i zgrać ich ewolucję. Tak czy owak okazało się, że wszystkie  niezbędne elementy 

logiczne można w ten sposób utworzyć, i świetlne kropki w świecie ŻYCIA całkiem dobrze, 

choć może nieco zbyt wolno, są w stanie spełniać rolę uniwersalnego komputera. Rezultat ten ma 

fascynujące   implikacje.   Występują   tu   dwa   poziomy.   Po   pierwsze,   mamy   komputer   z 

odpowiednim   programem   realizujący   na   swym   ekranie   grę   w   ŻYCIE,   po   drugie   struktury 

ŻYCIA same z kolei funkcjonują na wyższym poziomie jako komputer. Teoretycznie hierarchia 

ta może obejmować dowolnie wiele poziomów: komputer ŻYCIA można zaprogramować tak, by 

sam   grał   w   ŻYCIE   produkując   kolejny   poziom   struktur...   Niedawno   uczestniczyłem   w 

konferencji   poświęconej   badaniom   układów   złożonych,   na   której   dwaj   informatycy   z 

Massachusetts   Institute   of   Technology,   Tom   Toffoli   i   Norman   Margolus,   zademonstrowali 

działanie logicznej bramki „I” w postaci struktury na ekranie komputera. Pokazowi przyglądał się 

również Charles Bennett z IBM, ekspert w dziedzinie matematycznych podstaw informatyki i 

teorii   układów   złożonych.   Zwróciłem   Bennettowi   uwagę,   że   właśnie   widzimy   elektroniczny 

komputer symulujący komórkowy automat symulujący komputer. Bennett odpowiedział, że ta 

hierarchia poziomów obliczeniowych przywodzi mu na myśl rosyjskie lalki-matrioszki.

background image

Fakt,   że   za   pomocą   struktur   ŻYCIA   możemy   zrealizować   koncepcję   uniwersalnego 

komputera, oznacza, iż wszystkie wnioski z analiz Turinga mogą być przetransponowane w świat 

ŻYCIA.  Na przykład   będziemy  tu  również  mieli  do  czynienia  z  operacjami  nieobliczalnymi. 

Pamiętajmy, że nie ma systematycznego sposobu na sprawdzenie z góry, czy dany problem jest 

możliwy do rozstrzygnięcia przez maszynę Turinga; końcowego stanu maszyny Turinga nie da 

się   poznać   wcześniej.   A   zatem   nie   jesteśmy   również   w   stanie   poznać,   co   stanie   się   z 

odpowiadającymi   jej   strukturami   ŻYCIA,   pomimo   iż   struktury   te   powstają   w   sposób   ściśle 

deterministyczny. Sądzę, że jest wniosek niezwykle doniosły, mający daleko idące konsekwencje 

dla   całej   rzeczywistości.   Okazuje   się   bowiem,   że   w   świecie   ŻYCIA   zawarty   jest   element 

przypadkowości czy też niepewności (nie bardzo śmiem nazwać to „wolną wolą”), zupełnie jak 

w świecie rzeczywistym, i wynika on z ograniczeń narzucanych przez samą logikę, o ile tylko 

rozpatrywane układy osiągną wystarczający stopień złożoności, by możliwa była samoreferencja.

Samoreferencja   i   samoreprodukowanie   się   stanowią   pojęcia   ściśle   ze   sobą   związane; 

skoro wiec udało się udowodnić istnienie uniwersalnych komputerów na bazie struktur ŻYCIA, 

otworzyła   się   przed   Conwayem   możliwość   wykazania   istnienia   również   uniwersalnych 

konstruktorów, a zatem w pełni samoreprodukujących się struktur ŻYCIA. I w tym przypadku 

nie chodziło o znalezienie konkretnej struktury tego typu, gdyż byłaby ona naprawdę ogromna. 

Niemniej   Conway   rozumował,   że   w   nieskończonym   świecie   ŻYCIA   z   punktami 

rozmieszczonymi  w sposób przypadkowy struktury samore-produkujące się musiałyby gdzieś 

powstać na mocy czystego przypadku. Jakkolwiek prawdopodobieństwo samoistnego utworzenia 

tak złożonych i ściśle dobranych struktur jest astronomicznie małe, w naprawdę nieskończonym 

świecie wszystko, co w ogóle może się zdarzyć, na pewno się wydarzy.  Można nawet sobie 

wyobrazić coś na kształt ewolucji typu darwinowskiego, prowadzącej do wyłonienia struktur 

samoreprodukujących się o jeszcze wyższym stopniu komplikacji.

Niektórzy entuzjaści ŻYCIA utrzymują, że takie samoreprodukujące się struktury byłyby 

naprawdę   żywe,   ponieważ   posiadałyby   wszystkie   atrybuty,   jakie   przysługują   organizmom 

żywym   w   naszym   Wszechświecie.   Jeśli   życie   zdefiniujemy   jako   energię   zorganizowaną   w 

struktury  o   odpowiednio   wysokim   stopniu   złożoności,   będą   oni  mieli   rację.   Faktem   jest,   że 

istnieje obecnie nawet odrębna dyscyplina naukowa, „studia nad sztucznym życiem”, zajmująca 

się   generowanymi   komputerowo   strukturami   obdarzonymi   zdolnością   samoorganizacji   i 

przystosowywania   się.   Stawia   ona   sobie   za   cel   odróżnienie   istoty   tego,   co   to   znaczy   „być 

background image

żywym”,   od   przypadkowych   elementów   rzeczywistych   istot   żyjących.   Na   jednej   z   ostatnich 

konferencji   na   temat   sztucznego   życia   informatyk   Chris   Langdon   wyjaśniał:   „Jesteśmy 

przekonani, że uda nam się urzeczywistnić na komputerach światy wystarczająco złożone, by 

możliwe były w nich procesy, które w odniesieniu do danego świata należałoby uznać za formy 

życia.   Ale   w   takim   przypadku   mielibyśmy   do   czynienia   z   życiem   na   zupełnie   odmiennym 

podłożu. (...) Rodzi się zatrważająca możliwość, że to właśnie my stworzymy następną generację 

istot żywych we Wszechświecie”

6

. Poundstone zgadza się z tym poglądem: „Jeżeli za kryterium 

życia uznamy nietrywialne samoreprodukowanie się, to samoreplikujące się struktury ŻYCIA 

należałoby uważać za istoty żywe. Nie znaczyłoby to bynajmniej, że symulują one zachowanie 

istot żywych, jak w przypadku obrazu telewizyjnego, lecz że są naprawdę żywe, gdyż obdarzone 

są zdolnością kodowania i przetwarzania informacji genetycznej. Przy takim rozumieniu życia 

nawet najprostsze samoreprodukujące się struktury ŻYCIA są istotami żywymi, i to w większym 

stopniu niż wirusy”

7

.

John Conway posuwa się jeszcze dalej, utrzymując, że bardziej zaawansowane struktury 

ŻYCIA mogłyby być obdarzone świadomością: „Jest prawdopodobne, o ile tylko, początkowo 

chaotyczna,  populacja ŻYCIA  będzie  wystarczająco  duża, że  po odpowiednio  długim czasie 

powstaną samoreplikujące się istoty inteligentne, które osiądą w jakimś miejscu kosmosu”

8

. Idee 

tego   typu   wzbudzają   jednak   naturalny   opór.   W   końcu   świat   ŻYCIA   to   tylko   komputerowa 

symulacja.   Przecież   nie   jest   on   światem   prawdziwym.   Struktury   poruszające   się   po   ekranie 

zaledwie   imitują   istoty   żywe.   Ich   zachowanie   nie   ma   charakteru   spontanicznego;   to   tylko 

realizacja   komputerowego   programu   do   gry   w   ŻYCIE.   Jednakowoż,   odpowiadają   na   to 

entuzjaści ŻYCIA, zachowanie się struktur świata fizycznego również jest „zaprogramowane” w 

postaci   praw   fizyki   i   zadanych   warunków   początkowych.   Chaotyczny   rozkład   punktów,   z 

którego   może   się   zrodzić   samoreprodukująca   się   struktura   ŻYCIA,   odpowiada   bezpośrednio 

równie chaotycznej pierwotnej zupie molekularnej, z której miały powstać pierwsze organizmy 

żywe na Ziemi.

A więc, w jaki sposób możliwe jest odróżnienie świata rzeczywistego od jego imitacji? 

Będzie to tematem następnego rozdziału.

background image

Rozdział piąty

ŚWIAT RZECZYWISTY I ŚWIATY WIRTUALNE

Sny fascynują każdego z nas. Ludzie, którzy tak jak ja mają sny bardzo barwne, często 

doświadczają sytuacji, że są „uwięzieni” we śnie, który wydaje się im rzeczywistością. Ogromne 

uczucie   ulgi,   jakie   towarzyszy   potem   przebudzeniu,   jest   naprawdę   niekłamane.   Jednak   po 

wielekroć   zastanawiałem   się,   dlaczego,   zważywszy,   że   sen   jest   jednak   również   pewną 

rzeczywistością, czynimy tak ostre rozróżnienie między tym, czego doświadczamy śpiąc i po 

przebudzeniu. Czy możemy być absolutnie pewni, że „świat snu” jest zaledwie ułudą, a „świat 

jawy” czymś realnym? A może jest właśnie na odwrót, albo też obydwa są równie realne, albo 

żaden z nich? Jakie kryteria realności należałoby zastosować, aby tę kwestię rozstrzygnąć?

Zazwyczaj   w   takim   przypadku   słyszymy   odpowiedź,   że   sny   stanowią   doświadczenie 

jednostkowe, podczas gdy doświadczenie świata, który jawi się nam po przebudzeniu, jest spójne 

z doświadczeniem innych ludzi. Ale niewiele nam to pomoże. We śnie wiele razy spotykałem 

różne osoby, które zapewniały mnie, że są jak najbardziej rzeczywiste i że doświadczają tego 

samego co ja. Na jawie muszę wierzyć innym ludziom na słowo, że świat, jaki oni widzą, jest 

podobny   do   mojego,   ponieważ   nie   jestem   w   stanie   uczestniczyć   bezpośrednio   w   ich 

doświadczeniu.   W   jaki   zatem   sposób   mam   poznać,   że   twierdzenia   te   są   prawdziwe,   a   nie 

wygłaszane   przez   postać   ze   snu,   albo   też   odpowiednio   skomplikowany,   lecz   pozbawiony 

świadomości automat? Nie na wiele zda się tu wskazywanie faktu, że sny są na ogół niespójne, 

fragmentaryczne i absurdalne. Tak zwany świat realny często też nam się taki wydaje po wypiciu 

kilku kieliszków wina lub też po przebudzeniu z narkozy.

background image

Symulowanie rzeczywistości

Powyższe   uwagi   dotyczące   snów   miały   przygotować   czytelnika   do   rozważań   nad 

rzeczywistością symulowaną za pomocą komputerów. W poprzednim rozdziale dowodziłem, że 

komputer   jest   w   stanie   symulować   procesy   fizyczne   zachodzące   w   świecie   rzeczywistym, 

potencjalnie   nawet   tak   złożone,   z   jakimi   mamy   do   czynienia   w   biologii.   Z   drugiej   strony, 

widzieliśmy, że w gruncie rzeczy komputer jest niczym innym jak procedurą przekształcania 

jednego ciągu symboli na inny według pewnych zadanych reguł. Zazwyczaj symbolami tymi są 

liczby, a konkretnie ciągi jedynek i zer, które stanowią formę liczb najbardziej nadającą się do 

przetwarzania przez maszyny. Każda jedynka lub zero odpowiada jednemu bitowi informacji, tak 

wiec komputer jest urządzeniem, które pobiera ciąg bitów na wejściu i generuje inny ciąg bitów 

na wyjściu. W jaki sposób ten pozornie trywialny zespół abstrakcyjnych operacji miałby być w 

stanie uchwycić istotę fizycznego świata?

Porównajmy   działanie   komputera   z   jakimś   układem   fizycznym   występującym   w 

przyrodzie, na przykład planetą krążącą wokół Słońca. Stan tego układu w dowolnej chwili może 

być określony przez podanie położenia i prędkości planety. To są dane wejściowe. Odpowiednie 

liczby mogą być podane w postaci dwójkowej, jako ciąg jedynek i zer. W jakiś czas później 

planeta będzie miała inne położenie i prędkość, które mogą być wyrażone jako odpowiedni ciąg 

bitów. To są dane wyjściowe. Planecie udało się przekształcić jeden ciąg bitów w inny i dlatego 

w pewnym sensie możemy ją uważać za komputer. „Program”, który posłużył do tej konwersji, 

stanowią właściwe prawa fizyki (w tym przypadku prawa dynamiki i powszechnego ciążenia 

Newtona).

Naukowcy w coraz większym stopniu zdają sobie sprawę z podobieństw, jakie zachodzą 

pomiędzy procesami fizycznymi a komputerami, i często uznają za korzystne myślenie o świecie 

w kategoriach komputerowych. „Prawa nauki pełnią obecnie rolę algorytmów - twierdzi Stephen 

Wolfram z Institute for Advanced Study w Princeton. - Układy fizyczne uważa się za systemy 

obliczeniowe, przetwarzające informację tak, jak czynią to komputery”. Weźmy na przykład gaz. 

Stan gazu można określić przez podanie położenia i prędkości wszystkich jego cząsteczek w 

określonej chwili (z określoną dokładnością). Stanowiłoby to ogromnie długi ciąg bitów. Stan 

gazu w jakiejś późniejszej chwili będzie wyznaczony przez inny równie długi ciąg bitów. A 

zatem w wyniku dynamicznej ewolucji gazu nastąpiło przekształcenie danych wejściowych w 

background image

wyjściowe.

Związek pomiędzy procesami  w przyrodzie a operacjami  obliczeniowymi  jest jeszcze 

bardziej umocniony przez teorię kwantów, która ujawnia, że wiele wielkości fizycznych, dotąd 

uważanych   za   ciągłe,   ma   naprawdę   charakter   dyskretny.   Tak   więc   atomy   odznaczają   się 

oddzielnymi poziomami energii. Gdy atom zmienia swoją energię, następuje przejście pomiędzy 

poziomami. Jeśli każdemu poziomowi przypiszemy jakąś liczbę, takie przejście można traktować 

jako przekształcenie jednej liczby w drugą.

W   ten  sposób  dotarliśmy   do  samej   istoty  przydatności  komputerów   we  współczesnej 

nauce. Ponieważ komputery potrafią symulować się wzajemnie, elektroniczny komputer jest w 

stanie symulować każdy układ, który sam zachowuje się jak komputer. Stanowi to podstawę 

komputerowego modelowania świata realnego. Planety, naczynia z gazem i różne inne rzeczy 

zachowują się jak komputery,  a zatem można  je modelować.  Lecz  czy zachowanie  każdego 

fizycznego układu da się symulować w ten sposób? Wolfram uważa, że tak: „Oczekuje się, że 

komputery są równie potężne pod względem swej mocy obliczeniowej, co jakikolwiek fizycznie 

możliwy do zrealizowania układ, a zatem są one w stanie symulować dowolny układ fizyczny”. 

Jeśli jest to prawdą, wynika stąd, że za pomocą odpowiednio złożonego systemu obliczeniowego 

dałoby się w zasadzie symulować zachowanie całego fizycznego Wszechświata.

W poprzednim rozdziale wyjaśniałem, w jaki sposób automaty komórkowe, takie jak gra 

ŻYCIE, są w stanie generować miniaturowe światy, w których również możliwe są obliczenia. 

Nasuwa się nieodparty wniosek, iż świat ŻYCIA posiada wszystkie cechy świata rzeczywistego. 

„Automaty komórkowe, które potrafią działać jako uniwersalny komputer, są w stanie imitować 

działanie  każdego możliwego  komputera”  - wyjaśnia  Wolfram.  I dalej: „skoro każdy proces 

fizyczny   może   być   przedstawiony   jako   proces   obliczeniowy,   mogą   one   również   imitować 

zachowanie każdego możliwego układu fizycznego”. Czyż  więc miniaturowy świat automatu 

komórkowego,   taki   jak   świat   ŻYCIA,   można,   przynajmniej   w   zasadzie,   uczynić   tak 

„rzeczywistym”, że mógłby stanowić wierną replikę świata rzeczywistego? Wygląda na to, że 

tak. Ale to rodzi następne kłopotliwe pytanie. Jeśli wszystkie układy fizyczne można traktować 

jako komputery, natomiast komputery są w stanie doskonale imitować wszelkie układy fizyczne, 

to czymże w końcu różni się świat rzeczywisty od symulacji?

Nasuwa się odpowiedź, że symulacje są zaledwie niedokładnymi przybliżeniami świata 

rzeczywistego. Kiedy na przykład dokonuje się obliczenia orbity planety,  dokładność danych 

background image

wejściowych   jest   ograniczona   przez   błędy   obserwacji.   Ponadto   realistyczne   programy 

komputerowe w znacznym stopniu upraszczają opisywaną sytuację przez pominięcie zakłóceń 

pochodzących od mniejszych ciał kosmicznych i tym podobnych. Niemniej jednak można sobie z 

pewnością wyobrazić, że programy zostają coraz bardziej ulepszane, a dane zbierane są z coraz 

większą dokładnością, aż symulacja staje się praktycznie nieodróżnialna od rzeczywistości.

Ale czy symulacja nie musi się załamać na pewnym poziomie dokładności? Przez długi 

czas uważano, że na pytanie to należy odpowiedzieć twierdząco, wskutek tego, co uważano za 

fundamentalną różnicę pomiędzy realnym światem fizycznym a jego cyfrową symulacją. Różnica 

ta wiąże się z kwestią odwracalności w czasie. Jak wyjaśniałem już w rozdziale l, prawa fizyki są 

odwracalne w tym sensie, że pozostają niezmienione, gdy zamienimy miejscami przyszłość i 

przeszłość, tj. nie mają wbudowanego wyróżnionego kierunku upływu czasu. Otóż wszystkie 

maszyny cyfrowe podczas swego działania wydzielają energię. Ta stracona energia wydziela się 

wewnątrz urządzenia w postaci ciepła i trzeba ją odprowadzać. Gromadzenie się ciepła nakłada 

istotne praktyczne ograniczenia na możliwości obliczeniowe komputerów, toteż wiele wysiłków 

badawczych   poświęca   się   problemowi   jego   minimalizacji.   Problem   ten   dotyczy   już 

elementarnych obwodów logicznych komputera. Za każdym razem, gdy następuje przełączenie, 

wydziela   się   dodatkowa   ilość   ciepła.   Znamy   to   dobrze   z   życia   codziennego.   Trzask,   który 

słyszymy   przy   zapalaniu   światła   w   pokoju,   oznacza,   że   część   energii,   jaką   zużyliśmy   na 

uruchomienie przełącznika, rozeszła się w postaci fal dźwiękowych; pozostała część przekształca 

się   na   ciepło   wewnątrz   przełącznika.   Ten   wydatek   energii   jest   celowo   założony   przy 

projektowaniu   przełącznika,   aby   oba   stany,   w   jakich   może   się   on   znajdować   -   włączony   i 

wyłączony  -  odznaczały   się   stabilnością.   Gdyby   przełączanie   stanów   nie   wiązało   się   z 

wydatkowaniem energii, groziłoby to tym, że przełącznik będzie przechodził samoczynnie ze 

stanu do stanu.

Rozproszenie energii przy przełączaniu jest procesem nieodwracalnym. Ciepło rozchodzi 

się   w   otoczeniu   i   jest   bezpowrotnie   stracone.   Nie   jest   możliwe   skupienie   w   jakiś   sposób 

rozproszonej energii cieplnej i wykorzystanie jej do jakichkolwiek użytecznych celów bez dalszej 

utraty równie wielkiej ilości energii w tym procesie. Jest to przykład działania drugiego prawa 

termodynamiki,   które   zabrania   takiego   „darmowego”   spożytkowywania   rozproszonej   energii 

cieplnej. Niektórzy informatycy zwrócili jednak uwagę na to, że drugie prawo termodynamiki 

jest prawem statystycznym obowiązującym w układach o wielu stopniach swobody. W istocie 

background image

same pojęcia ciepła i entropii związane są z chaotycznym ruchem cząsteczek, toteż mają sens 

jedynie   dla   dużej   liczby   cząsteczek.   Gdyby   komputery   udało   się   zminiaturyzować   do   tego 

stopnia, że elementarne obwody logiczne składałyby się z kilku cząsteczek, czyż nie dałoby się 

całkowicie wyeliminować wydzielania ciepła?

Jednakże wydawało się, że istnieją pewne przeszkody natury ogólnej nie pozwalające na 

zrealizowanie tej idei. Weźmy na przykład pod uwagę opisaną w poprzednim rozdziale bramkę 

„I”.   Na   wejściu   mamy   dwa   kanały   (przewody),   na   wyjściu   tylko   jeden.   Cały   cel   operacji 

koniunkcji sprowadza się do zamiany dwóch sygnałów na wejściu w jeden sygnał na wyjściu. Od 

razu widać, że nie może to być proces odwracamy, gdyż nie ma możliwości odróżnienia, czy 

brak impulsu na wyjściu spowodowany był brakiem impulsu w jednym przewodzie na wejściu, w 

drugim czy też w obydwu. To zasadnicze ograniczenie stanowi odzwierciedlenie oczywistego 

faktu, że w zwykłych działaniach arytmetycznych możemy podać odpowiedzi znając pytanie, 

lecz nie na odwrót: w ogólnym przypadku nie jest możliwe wywnioskowanie pytań ze znanych 

odpowiedzi. Jeżeli ktoś nam powie, że wynikiem pewnego sumowania jest liczba 4, składnikami 

tej sumy mogły być 2 + 2, 3 + l lub 4 + 0. Mogłoby się zatem wydawać, że żaden komputer nie 

może być puszczony do tyłu z przyczyn czysto logicznych.

W rozumowaniu tym jest jednak pewna luka, którą niedawno odkryli Rolf Landauer i 

Charles Bennett z IBM. Przyjrzeli się oni bliżej nieodwracalności jako rzekomo nieodłącznej 

własności   procesu   obliczeniowego   i   stwierdzili,   że   bierze   się   ona   z   odrzucania   informacji. 

Obliczając sumę 1+2 + 2, można najpierw dodać 2 i 2 otrzymując 4, a następnie dodać 4 do l, aby 

otrzymać wynik końcowy 5. W tym ciągu operacji ma miejsce etap pośredni,z którego pozostaje 

tylko   liczba   4:   występujące   początkowo   2   +   2   zostały   odrzucone   jako   niepotrzebne   do 

pozostałych   obliczeń.   Ale   informacja   nie   musi   być   wcale   odrzucana;   możemy   ją   zachować. 

Oczywiście   potrzebna   jest   wtedy   większa   pojemność   pamięci,   aby   pomieścić   tę   dodatkową 

informację, jednak pozwoli to nam „odwracać” każdy proces obliczeniowy na dowolnym etapie i 

przechodzić od odpowiedzi do pytań.

Jednak   czy   możliwe   jest   zbudowanie   odpowiednich   obwodów   przełączających, 

realizujących tę odwracalną logikę? Ed Fredkin z MIT odkrył, że tak. Przełącznik Fredkina miał 

dwa kanały wejściowe i dwa kanały wyjściowe oraz dodatkowy „kanał kontrolny”. Dokonuje on 

operacji logicznych w normalny sposób, ale zachowując pełną informację wejściową na wyjściu. 

Proces  obliczeniowy  może  być  przeprowadzony w  odwracalny sposób nawet  na maszynie  z 

background image

dyssypacją, tj. takiej, w której nieuchronnie część energii ulega rozproszeniu. (Przy jakiejkolwiek 

praktycznej   realizacji   odwracalnego   procesu   obliczeniowego   nie   da   się   wyeliminować 

bezpowrotnego   rozpraszania   ciepła).   Niemniej   na   poziomie   teoretycznym   można   rozważać 

wyidealizowany układ, w którym zarówno procesy fizyczne, jak i obliczeniowe, przebiegałyby w 

sposób   odwracalny.   Fredkin   podał   przykład   wyimaginowanego   zespołu   sprężystych   kulek 

odbijających się w ściśle kontrolowany sposób od nieruchomych przegródek. Układ taki zdolny 

byłby do wykonywania odwracalnych operacji logicznych. Ostatnio przedstawiono również inne 

koncepcje komputerów odwracalnych.

Interesujące zagadnienie pojawia się przy rozważeniu statusu automatów komórkowych 

jako komputerów. Komputery generowane przez grę ŻYCIE nie są odwracalne, gdyż reguły gry, 

które doprowadziły do ich powstania, nie są odwracalne (następstwa pojawiających się struktur 

me  można odwrócić). Jednakże Norman Margolus skonstruował automat  komórkowy innego 

typu, który jest w stanie modelować odwracalny układ Fredkina z kulkami i przegródkami. Na 

poziomie   tego   automatu   jest   to   rzeczywiście   odwracalny   komputer,   zarówno   pod   względem 

obliczeniowym,   jak   i   „fizycznym”   (jakkolwiek   nadal   mamy   do   czynienia   z   nieodwracalną 

dyssypacją energii na poziomie elektronicznego komputera, na którym zrealizowany został ten 

automat komórkowy).

Fakt, że proces obliczeniowy może być przeprowadzony w sposób odwracalny, eliminuje 

zasadniczą   różnicę   pomiędzy   symulacją   komputerową   a   rzeczywistym   procesem   fizycznym, 

który jest przedmiotem tej symulacji. W istocie można odwrócić to porównanie i zapytać, w 

jakim   stopniu   rzeczywiste   procesy   fizyczne   są   procesami   obliczeniowymi.   Jeżeli   proces 

obliczeniowy  nie   wymaga   nieodwracalnych   przełączników,   czy  zwykły   ruch   ciał   fizycznych 

może być uznany za część składową takiego procesu? Kilka lat temu udowodniono, że pewne 

układy nieodwracalne, na przykład maszyny Turinga i automaty komórkowe oparte na regułach 

nieodwracalnych, jak ŻYCIE, można zaprogramować, aby wykonywały każdy zadany cyfrowy 

proces obliczeniowy, poprzez odpowiedni dobór ich stanu początkowego. Własność ta zwana jest 

„uniwersalnością   obliczeniową”.   W   przypadku   ŻYCIA   oznacza   to,   że   można   dobrać   taką 

strukturę wyjściową, która będzie umieszczała punkt w danym położeniu, jeżeli, na przykład, 

pewna liczba jest liczbą pierwszą. Inna struktura będzie to czynić, jeżeli pewne równanie posiada 

rozwiązanie,  i tak dalej. W ten sposób ŻYCIE może być  użyte  do badania nierozwiązanych 

problemów matematycznych, takich jak Wielkie Twierdzenie Fermata.

background image

Zupełnie niedawno wykazano, że pewne odwracalne układy deterministyczne, takie jak 

komputer   Fredkina   z   kulkami   i   przegródkami,   posiadają   również   własność   uniwersalności 

obliczeniowej, oraz że przysługuje ona nawet niektórym układom niedeterministycznym. Wydaje 

się   zatem,   że   uniwersalność   obliczeniowa   jest   dosyć   często   spotykaną   własnością   układów 

fizycznych. Jeśli jakiś układ posiada już tę własność, to na mocy definicji mogą w nim zachodzić 

procesy o dowolnym dużym stopniu złożoności, jakie tylko mogą być symulowane za pomocą 

maszyn   cyfrowych.   Można   pokazać,   że   nawet   układ   tak   prosty,   jak   układ   trzech   ciał 

poruszających   się   w   swym   polu   grawitacyjnym   (np.   dwie   planety   okrążające   gwiazdę), 

obdarzony   jest   uniwersalnością   obliczeniową,   a   zatem   odpowiednio   dobierając   położenia   i 

prędkości tych planet w pewnej chwili, można sprawić, że układ ten będzie obliczać na przykład 

kolejne miejsca dziesiętne liczby n, trylionową liczbę pierwszą, czy też wynik kolizji miliarda 

szybowców w świecie ŻYCIA. Być może ten pozornie trywialny układ trzech elementów byłby 

w   stanie   symulować   nawet   zachowanie   całego   Wszechświata,   jeśli,   jak   utrzymują   niektórzy 

entuzjaści, Wszechświat da się modelować za pomocą maszyny cyfrowej.

Zwykliśmy myśleć o komputerach jako o bardzo szczególnych układach, które wymagają 

dużego   wkładu   myśli   technicznej   przy   ich   konstruowaniu.   Nie   da   się   zaprzeczyć,   że 

elektroniczne maszyny cyfrowe są skomplikowane, ale jest to związane z ich wszechstronnością. 

Znaczna   część   niezbędnego   programowania   jest   już   zapewniona   przez   samą   konstrukcję 

komputera   i   nie   trzeba   go   za   każdym   razem   powtarzać   przez   odpowiedni   dobór   warunków 

początkowych.   Mimo   to   zdolność   wykonywania   obliczeń   jest   czymś,   co,   jak   się   wydaje, 

przysługuje   wielu   układom   fizycznym,   w   tym   niektórym   nawet   bardzo   prostym.   Rodzi   to 

pytanie, czy jest możliwe przeprowadzanie obliczeń za pomocą układów pojedynczych atomów 

czy   wręcz   cząstek   elementarnych.   Kwestią   tą   zajmował   się   fizyk   Richard   Feynman,   który 

wykazał,   że   zgodnie   z   prawami   mechaniki   kwantowej   istnieje   realna   możliwość   działania 

odwracalnego komputera na poziomie cząstek elementarnych. Czy zatem możemy uważać, że 

niezliczone procesy kwantowe zachodzące w przyrodzie przez cały czas - wewnątrz nas samych, 

we   wnętrzu   gwiazd,   w   gazie   międzygwiezdnym,   w   odległych   galaktykach   -   stanowią   część 

jakiegoś gigantycznego kosmicznego procesu obliczeniowego? Gdyby tak było, procesy fizyczne 

i obliczeniowe byłyby tym samym, i mielibyśmy prawo wyciągnąć zdumiewający wniosek, że 

Wszechświat symuluje sam siebie.

background image

Czy Wszechświat jest komputerem?

Osobą, która z naciskiem odpowiada twierdząco na to pytanie, jest Ed Fredkin. Uznając 

świat   fizyczny   za   gigantyczny   automat   komórkowy,   uważa   on,   że   badania   nad   automatami 

komórkowymi wykazują, iż jest możliwe symulowanie realistycznych procesów fizycznych, w 

tym nawet tak wyrafinowanych jak relatywistyczne. Przekonanie to podziela też współpracownik 

Fredkina   Tom   Toffoli,   który   kiedyś   w   żartach   wyraził   się,   że   Wszechświat   jest   wprawdzie 

komputerem, wszakże problem polega na tym, iż ktoś inny się nim posługuje. A my, no cóż, 

jesteśmy zaledwie pchłami w tej wielkiej kosmicznej maszynie! „Pozostaje nam tylko - twierdzi 

Toffoli - »załapać się« na ten olbrzymi proces obliczeniowy, próbując stwierdzić, czy jakieś jego 

elementy nie podążają mniej więcej w kierunku, który by nam odpowiadał”.

Fredkinowi   i   Toffolemu   nie   brakuje   wspólników   w   tych   zdumiewających,   można   by 

nawet rzec dziwacznych, poglądach. Fizyk  Frank Tipler również opowiada się silnie za ideą 

utożsamienia Wszechświata ze swoją własną symulacją. Co więcej, symulacja ta wcale nie musi 

być   przeprowadzana   na   prawdziwym   komputerze,   utrzymuje   Tipler.   Ostatecznie   program 

komputerowy to tylko przekształcenie (czy też odwzorowanie) jednego zbioru abstrakcyjnych 

symboli   w   inny   zgodnie   z   pewną   regułą   podającą   zależność   między   wejściem   a   wyjściem. 

Fizyczny komputer stanowi konkretną reprezentacje tego odwzorowania, podobnie jak rzymska 

liczba III jest reprezentacją abstrakcyjnej liczby 3. Samo istnienie takiego odwzorowania - nawet 

o charakterze abstrakcyjnym, w obszarze czystej matematyki - jest dla Tiplera wystarczające.

Należy   zaznaczyć,   że   nasze   współczesne   teorie   fizyczne   nie   przypominają   na   ogół 

algorytmów komputerowych, gdyż wielkości w nich występujące zmieniają się w sposób ciągły. 

W   szczególności   za   ciągłe   uznawane   są   przestrzeń   i   czas.   „Możliwość,   aby   istniała   wierna 

symulacja, aby komputer robił to samo, co przyroda - wyjaśnia Richard Feynman - wymaga, by 

wszystko,   co   zachodzi   w   skończonym   obszarze   przestrzeni   i   czasu,   dało   się   dokładnie 

przeanalizować za pomocą skończonej liczby operacji logicznych. Obecne teorie fizyczne nie 

spełniają tego warunku. Przestrzeń traktowana jest w nich jako nieskończenie podzielna”

5

. Z 

drugiej strony,  ciągłość zarówno przestrzeni,  jak i czasu, stanowią tylko  postulaty dotyczące 

świata. Nie można ich dowieść, bo nigdy nie będziemy pewni, czy w jakiejś jeszcze mniejszej 

skali, daleko poniżej możliwości obserwacyjnych, przestrzeń i czas nie mają jednak charakteru 

dyskretnego. Co to miałoby znaczyć? Po pierwsze, znaczyłoby, że czas upływa nie jednostajnie, 

background image

lecz małymi skokami. Sytuacja przypominałaby film wyświetlany w kinie, który posuwa się do 

przodu zawsze o jedną klatkę. Film wydaje się nam czymś ciągłym, ponieważ nasze zmysły nie 

rejestrują krótkich odstępów czasu pomiędzy klatkami. Podobnie w fizyce,  aktualna technika 

eksperymentalna pozwala na pomiar przedziałów czasu do 10

28  

sekundy; przy tych wartościach 

nie obserwuje się żadnych skoków. Jednakże niezależnie od tego, jak krótkie czasy będziemy w 

stanie mierzyć, zawsze trzeba liczyć się z możliwością, że te małe przeskoki czasu są jeszcze 

krótsze.   To   samo   odnosi   się   do   postulatu   ciągłości   przestrzeni,   a   zatem   ta   przeszkoda   w 

dokładnym symulowaniu rzeczywistości być może nie jest tak poważna.

Nadal jednak skłonni bylibyśmy uważać, że mapa jest czymś  innym  od terenu, który 

przedstawia. Nawet gdyby mógł istnieć kosmiczny komputer tak niewiarygodnie potężny,  że 

byłby w stanie dokładnie symulować zachowanie każdego atomu we Wszechświecie, to przecież 

komputer ten nie zawierałby w sobie Ziemi krążącej  wokół Słońca, podobnie jak Biblia nie 

zawiera Adama i Ewy. Symulacja komputerowa jest zazwyczaj traktowana jako reprezentacja, 

czyli   obraz   rzeczywistości.   Jak   mógłby   ktoś   twierdzić,   że   procesy   zachodzące   we   wnętrzu 

komputera mogłyby stworzyć rzeczywisty świat?

Tipler replikuje, że zarzut ten może być słuszny jedynie z punktu widzenia zewnętrznego 

wobec komputera. Gdyby istniał komputer na tyle potężny, że mógłby symulować świadomość, a 

w konsekwencji i całą społeczność istot rozumnych, to z punktu widzenia tych istot wewnątrz 

komputera świat symulacji byłby światem rzeczywistym:

„Zasadniczym pytaniem jest: czy symulowani ludzie są realni? Z ich własnego punktu 

widzenia, z pewnością tak. Z założenia, jakiekolwiek działanie czy procedurę, które rzeczywiści 

ludzie byliby w stanie przeprowadzić, aby dowieść, że naprawdę istnieją - związane z tym, że 

myślą, oddziaływają z otoczeniem - zdolni są wykonać także ludzie symulowani, i faktycznie 

wykonują. Nie ma wprost żadnego sposobu, by symulowani ludzie byli w stanie stwierdzić, że 

»tak   naprawdę«   to   są   we   wnętrzu   komputera,   że   nie   są   istotami   realnymi,   lecz   tylko 

symulowanymi. Prawdziwa rzeczywistość, fizycznie istniejący komputer, jest dla nich stamtąd, 

gdzie się znajdują, z wnętrza komputerowego programu, całkowicie niedostępna. (...) Nie ma 

żadnej metody pozwalającej symulowanym ludziom na odróżnienie, że są zaledwie symulacją, 

ciągami cyfr krążących po obwodach komputera, że nie są realni”.

Oczywiście   cały   wywód   Tiplera   opiera   się   na   założeniu,   że   komputery   są   w   stanie 

symulować   świadomość.   Czy   można   to   uznać   za   założenie   rozsądne?   Wyobraźmy   sobie 

background image

komputer symulujący człowieka. Jeśli mamy do czynienia z symulacją doskonałą, obserwator 

zewnętrzny nie wtajemniczony w sytuację nie byłby w stanie na podstawie rozmowy odróżnić, 

czy ma do czynienia z symulacją komputerową czy też z rzeczywistą osobą należącą do naszego 

świata. Obserwator taki mógłby zadawać symulowanej istocie różne pytania, otrzymując w pełni 

sensowne,   jak   u   człowieka,   odpowiedzi;   w   wyniku   czego   byłby   skłonny   uznać,   że   ma   do 

czynienia   z   ludzką   inteligencją.   W   istocie   sam   Alan   Turing   podjął   to   zagadnienie   w   swym 

słynnym artykule zatytułowanym Czy maszyny myślą?, w którym przytoczył nawet przykładowe 

pytania dla takiego testu. Jakkolwiek większość ludzi uważa przypuszczenie, że maszyny mogą 

być   obdarzone   świadomością,   za   dziwaczne,   jeśli   nie   wręcz   absurdalne,   szereg   wybitnych 

naukowców i filozofów wyznających tak zwaną silną zasadę sztucznej inteligenci przyjmowało 

na tej podstawie, że w przypadku takiej symulacji komputerowej mielibyśmy do czynienia z 

rzeczywistą świadomością.

Tym, którzy oswoili się z myślą, iż komputer o odpowiedniej mocy obliczeniowej może 

być   obdarzony   świadomością,   nie   sprawi   już   większych   trudności   zaakceptowanie   tezy,   że 

komputer   może   w   zasadzie   stworzyć   całą   społeczność   istot   inteligentnych.   Członkowie   tej 

społeczności myśleliby i odczuwali, żyli  i umierali, w obrębie swego symulowanego  świata, 

zupełnie nie zdając sobie sprawy z faktu, że zdani są na łaskę nieznanego operatora, który może 

przecież  w   każdej  chwili   wyłączyć  komputer!  Taki   byłby   właśnie  status  inteligentnych  istot 

Conwaya bytujących w świecie ŻYCIA.

W wyniku całej tej dyskusji nasuwa się nieodparcie pytanie: skąd wiemy, że my sami 

jesteśmy   „realni”,   a   nie   stanowimy   zaledwie   symulacji   w   ramach   jakiegoś   gigantycznego 

komputera? „Jest oczywiste, że nie możemy mieć takiej pewności” - odpowiada Tipler. Lecz czy 

ma   to   w   ogóle   jakieś   znaczenie?   Tipler   jest   zdania,   że   nie   jest   ważne,   czy   taki   komputer 

naprawdę istnieje, skoro i tak inteligentne istoty w jego wnętrzu nie mają żadnej możliwości, by 

się o tym przekonać. Wystarczy przyjąć, że istnieje odpowiedni abstrakcyjny program (nawet 

jeśli ma on tylko postać abstrakcyjnej tabelki), pozwalający zrealizować symulację świata. Z tego 

samego powodu nie jest istotne, czy fizyczny świat naprawdę istnieje: „Taki fizycznie realny 

świat   byłby   równoważny   rzeczy-samej-w-sobie   u   Kanta.   Jako   empirycy   zmuszeni   jesteśmy 

odrzucić   taki   z   zasady   niepoznawalny   byt:   istnienie   świata   sprowadza   się   do   istnienia 

abstrakcyjnego programu”

7

.

Niedogodnością tego stanowiska (niezależnie od tego, że zakrawa ono na  reductio ad 

background image

absurdum) jest to, iż liczba możliwych abstrakcyjnych programów jest nieskończona. Dlaczego 

zatem   przedmiotem   naszego   doświadczenia   jest   ten   właśnie   Wszechświat?   Tipler   sądzi,   że 

wszystkie   możliwe   Wszechświaty,   które   dopuszczają   istnienie   świadomości,   są   przez   kogoś 

doświadczane. Nasz nie jest jedyny. Naturalnie, z definicji postrzegamy właśnie ten. Niemniej 

istnieją inne Wszechświaty, z których wiele jest podobnych do naszego, mające swych własnych 

mieszkańców, dla których ich Wszechświat jest pod każdym względem równie realny jak nasz 

dla nas. (Jest to jedna z wersji kwantowomechanicznej hipotezy „wielu światów”, przyjmowanej 

przez wielu wybitnych fizyków, którą opisywałem szczegółowo w mojej książce Other Worlds 

[Inne światy]. Powrócę jeszcze do tego tematu w rozdziale 8). Programy realizujące światy, w 

których nie ma istot inteligentnych, nie są przez nikogo poznawane, i być może z tego powodu 

mogą być w pewnym sensie uważane za mniej realne. Zbiór programów zdolnych generować 

światy   poznawane   stanowi   zaledwie   niewielki   podzbiór   zbioru   wszystkich   możliwych 

programów. Nasz może tu uchodzić za typowy.

background image

Nieosiągalne

Jeżeli Wszechświat stanowi „wyjście” jakiegoś procesu obliczeniowego, to z definicji 

musi być obliczalny. Wyrażając się dokładniej, musi istnieć program albo algorytm, pozwalający 

na   otrzymanie   właściwego   opisu   świata   w   skończonej   liczbie   kroków.   Gdybyśmy   znali   ten 

algorytm,   dysponowalibyśmy   pełną   teorią   Wszechświata,   zawierającą   również   wartości 

numeryczne   wszystkich   mierzalnych   wielkości   fizycznych.   Co   możemy   powiedzieć   o   tych 

liczbach? Jeżeli mają być one wynikiem obliczenia, muszą to być liczby obliczalne. Powszechnie 

przyjmowano,   że   wartości   wszystkich   mierzalnych   wielkości   w   teorii   fizycznej   są   liczbami 

policzalnymi, lecz ostatnio przypuszczenie to zostało zakwestionowane przez fizyków Roberta 

Gerocha i Jamesa Hartle'a. Pokazują oni, że istnieją teorie fizyczne dopuszczające  wielkości 

mierzalne   będące   liczbami   niepoliczalnymi.   Wprawdzie   są   to   teorie   związane   z   bardzo 

technicznymi aspektami czasoprzestrzeni, ale chodzi o samą zasadę.

Przypuśćmy,   że   z   naszej   wspaniałej   teorii   wynika,   że   jakaś   wielkość,   na   przykład 

stosunek mas dwóch cząstek elementarnych, wyraża się niepoliczalną liczbą x. Czy taka teoria 

może być zweryfikowana? Sprawdzenie jakiegoś przewidywania wymaga porównania wartości 

teoretycznej z wartością otrzymaną na podstawie eksperymentów. Oczywiście, jest to możliwe 

tylko z określoną dokładnością. Załóżmy, że błąd oczekiwany wartości eksperymentalnej wynosi 

10 procent. Zatem trzeba, abyśmy znali wartość x z dokładnością 10 procent. Jednak, jakkolwiek 

wartość x istnieje, nie mamy żadnego skończonego algorytmu, żadnej systematycznej procedury 

pozwalającej   ją   wyznaczyć.   Z   drugiej   strony,   potrzebujemy   znać   wartość   x   jedynie   z 

dokładnością 10 procent i niewątpliwie można znaleźć algorytm dający w wyniku ciąg coraz 

lepszych przybliżeń x, których błąd będzie w końcu mniejszy niż 10 procent. Cały problem w 

tym, że skoro nie znamy x, nie jesteśmy w stanie określić, kiedy znajdziemy się w granicach 

dopuszczalnego błędu.

Mimo  tych  trudności, niewykluczone,  że dziesięcioprocentowe  przybliżenie może być 

wyznaczone   metodami   niealgorytmicznymi.   Konstruując   algorytm   musimy   z   góry   określić 

skończony ciąg standardowych instrukcji, aby potem otrzymywać żądany wynik stosując je w 

czysto   mechaniczny   sposób.   W   przypadku   liczby   obliczalnej,   takiej   jak  n,  możemy   sobie 

wyobrazić komputer pracowicie wyliczający ciąg coraz to lepszych przybliżeń i określający za 

każdym razem, jaka jest dokładność otrzymanego przybliżenia. Jednakże, jak się przekonaliśmy, 

background image

ta   ogólna   strategia   zawodzi   w   przypadku   liczb   niepoliczalnych.   Teoretyk   będzie   musiał 

traktować   każdy   poziom   dokładności   jako   odrębny   problem,   który   należy   rozwiązywać   w 

specyficzny sposób. Nawet jeżeli za pomocą jakiejś przemyślnej metody uda mu się wyznaczyć x 

z dokładnością 10 procent, nie jest wcale powiedziane, że ta sama metoda pozwoli mu osiągnąć 

dokładność jednoprocentową, toteż teoretyk będzie musiał się chwytać jakichś nowych, zupełnie 

odmiennych sposobów. Każde zwiększenie dokładności wartości otrzymanych eksperymentalnie 

zmuszać będzie naszego biednego teoretyka do coraz większego wysiłku, aby wyznaczyć daną 

wartość teoretycznie z równą dokładnością.

Geroch   i   Hartle   wskazują   na   fakt,   że   na   ogół   najtrudniejszym   zadaniem   jest 

skontruowanie właściwej teorii; jej późniejsze zastosowanie jest już zazwyczaj procedurą czysto 

mechaniczną.  Trzeba   było   geniuszu  Newtona,   by  stworzyć   prawa  dynamiki  i  powszechnego 

ciążenia, natomiast wystarczy odpowiednio zaprogramować komputer, aby stosując tę teorię „na 

ślepo”, przewidział datę najbliższego zaćmienia Słońca. W przypadku teorii, w której występują 

wartości   nieobliczalne,   stosowanie   teorii   może   być   równie   trudne,   jak   jej   wcześniejsze 

stworzenie. W istocie te dwie czynności nie będą się od siebie wyraźnie różniły.

Bez   wątpienia   teoretyk   życzyłby   sobie,   żeby   nasze   teorie   fizyczne   takie   nie   były. 

Jednakowoż nie możemy być  pewni, że tak zawsze będzie. Mogą istnieć silne przesłanki za 

przyjęciem   konkretnej   teorii,   która,   jak   się   potem   okaże,   przewiduje   jakieś   wielkości 

nieobliczalne. Geroch i Hartle sugerują, że to właśnie ma miejsce w przypadku kwantowego 

opisu czasoprzestrzeni. Czy należałoby odrzucić teorię wyłącznie z tego powodu? Czy są jakieś 

przesłanki,   by   zakładać,   że   Wszechświat   musi   być   opisywany   tylko   teoriami   dającymi   się 

zastosować w sposób algorytmiczny? Tego nie wiemy, ale jednej rzeczy możemy być pewni. 

Jeśli odpowiedź na to pytanie jest negatywna, cała, pod innymi względami tak bliska, analogia 

pomiędzy przyrodą a komputerem zupełnie się załamuje.

Mając   na   uwadze   powiedzenie   Einsteina,   iż   Pan   Bóg   jest   wyrafinowany,   lecz   nie 

perfidny,   załóżmy,   że   rzeczywiście   żyjemy   w   „obliczalnym”   Wszechświecie.   Cóż   zatem 

jesteśmy   w   stanie   wywnioskować   o   naturze   programu,   który,   jak   chcieliby   nas   przekonać 

Fredkin, Tipler i im podobni, jest podłożem naszej rzeczywistości?

background image

Niepoznawalne

Zajmijmy się przez chwilę konkretnym przypadkiem programu używanego w maszynie 

cyfrowej, służącego na przykład do mnożenia ciągu liczb. Założeniem całej koncepcji jest, że 

napisanie programu powinno być w jakimś sensie prostsze niż wykonanie operacji, do których 

jest on przeznaczony. Gdyby tak nie było, nikt nie zawracałby sobie głowy komputerem, lecz po 

prostu  przeprowadził   rachunki  bezpośrednio.  Można  to   wyrazić  w  ten   sposób,  że   użyteczny 

program   komputerowy   jest   w   stanie   generować   więcej   informacji   (w   tym   przypadku, 

przeprowadzić bardzo wiele mnożeń), niż sam zawiera. Jest to nic innego, jak nieco udziwniony 

sposób powiedzenia, że w matematyce poszukujemy prostych reguł, które mogą być stosowane 

wielokrotnie,   nawet   przy   bardzo   skomplikowanych   obliczeniach.   Jednakże   nie   wszystkie 

operacje w matematyce da się wykonać za pośrednictwem programu znacznie mniej złożonego 

niż sama ta operacja. W istocie, z faktu istnienia liczb nieobliczalnych wynika, że dla pewnych 

operacji   nie   istnieje   żaden   program.   Zatem   niektóre   procesy   matematyczne   cechuje   taka 

złożoność wewnętrzna, że nie mogą być one ujęte w ramy zwięzłego programu.

W przyrodzie również mamy do czynienia z procesami o ogromnej złożoności, a zatem 

rodzi się pytanie, czy można je zawrzeć w ramach zwięzłego opisu. Ujmując rzecz inaczej, czy 

„program   Wszechświata”   jest   znacząco   prostszy   niż   sam   Wszechświat?   Stanowi   to   bardzo 

głębokie   pytanie   dotyczące   natury   rzeczywistości   fizycznej.   Jeśli   program   komputerowy   lub 

algorytm jest prostszy niż układ, którego dotyczy, mówimy, że układ ten jest „algorytmicznie 

upraszczalny”. Zatem mamy znaleźć odpowiedź na pytanie, czy Wszechświat jest algorytmicznie 

upraszczalny.

Zanim   zajmiemy   się   tym   pytaniem,   nie   od   rzeczy   będzie   rozważenie   pojęcia 

algorytmicznej   upraszczalności   nieco   bardziej   szczegółowo.   Dziedzina,   zwana   algorytmiczną 

teorią   informacji,  została   stworzona  w  latach   sześćdziesiątych   w  Związku  Radzieckim   przez 

Andrieja Kołmogorowa oraz w Stanach Zjednoczonych przez Gregory Chaitina z IBM. U jej 

podstaw   leżało   bardzo   proste   pytanie:   jaki   najkrótszy   komunikat   pozwala   wyrazić   układ   o 

pewnym stopniu złożoności? Jest oczywiste, że prosty układ da się wyrazić krótko, lecz złożony 

układ już nie (spróbujcie opisać strukturę rafy koralowej za pomocą tej samej liczby słów, co w 

przypadku opisu kostki lodu). Chaitin i Kołmogorow zaproponowali definicję złożoności układu 

jako długości najkrótszego możliwego jego opisu.

background image

Przyjrzyjmy się, jak to działa w przypadku liczb. Istnieją liczby proste, takie jak 2 lub n, 

liczby złożone, jak ciąg jedynek i zer otrzymany poprzez rzuty monetą (orzeł = 0, reszka = 1). 

Czy   możemy   podać   typ   opisu   pozwalający   na   jednoznaczne   wyrażanie   tych   liczb?   Jedną   z 

możliwości jest wypisywanie ich w postaci dziesiętnej lub dwójkowej  (n  można tak wyrazić 

tylko jako konkretne przybliżenie, gdyż jej rozwinięcie dziesiętne ma długość nieskończoną). 

Jednakże jest oczywiste, że nie jest to najkrótszy sposób ich opisu. Na przykład liczbę rt możemy 

wyrazić   krócej,   podając   wzór   pozwalający   na   obliczenie   jej   z   zadaną   dokładnością.   Jeżeli 

przyjmiemy, że rozważane liczby otrzymujemy na wyjściu komputera, to najkrótszym opisem 

danej  liczby będzie  najkrótszy program  pozwalający komputerowi  obliczyć  tę liczbę.  W ten 

sposób za proste liczby będziemy uważać te, które są generowane przez krótkie programy, a za 

złożone te, które wymagają długiego programu.

Następnym etapem jest porównanie długości danej liczby z długością programu, który ją 

oblicza. Czy jest on krótszy? Czy faktycznie udało nam się w ten sposób osiągnąć uproszczenie? 

Aby wyrazić to w sposób bardziej ścisły, przypuśćmy, że na wyjściu komputera otrzymujemy 

ciąg jedynek i zer, taki jak ten:

101101011100010100110101001... (gdzie kropki „...” oznaczają „i tak dalej, nawet w 

nieskończoność”).   Ciąg   ten   będzie   zawierał   pewną   ilość   informacji,   mierzoną   w   „bitach”. 

Następnie chcemy porównać tę zawartość informacyjną z ilością informacji, jaką zawiera sam 

program. By podać tu prosty przykład, załóżmy, że na wyjściu komputera otrzymaliśmy:

101010101010101010101010101010

Ten ciąg moży być wygenerowany za pomocą prostego algorytmu „Wydrukuj piętnaście 

razy 10”. O wiele dłuższy ciąg otrzymamy za pomocą programu „Wydrukuj milion razy 10”. Ten 

drugi program nie jest wcale bardziej skomplikowany niż pierwszy, a wynikiem jego działania 

jest   o   wiele   dłuższy   ciąg   informacyjny.   Wynika   stąd,   że   gdy   ciąg   wynikowy   zawiera 

jakiekolwiek struktury, to mogą być one wyrażone za pomocą prostego algorytmu, który może 

być o wiele krótszy (przyjmując za jednostki bity informacji) niż pierwotnie otrzymany ciąg. 

Mówimy   wtedy,   że   ciąg   jest   algorytmicznie   upraszczamy.   Natomiast   jeżeli,   na   odwrót,   dla 

danego ciągu nie da się podać algorytmu istotnie krótszego niż on sam, jest on algorytmicznie 

nieupraszczalny. W tym przypadku ciąg nie będzie zawierał żadnych regularności ani struktur; 

będzie   to   po   prostu   chaotyczny   ciąg   jedynek   i   zer.   W   ten   sposób   stopień   możliwego   do 

osiągnięcia   uproszczenia   algorytmicznego   może   być   uznany   za   praktyczną   miarę   złożoności 

background image

ciągu   wynikowego,   przy   czym   niska   upraszczalność   oznaczałaby   większą   złożoność.   Ciągi 

regularne da się znacznie uprościć, podczas gdy nie można tego uczynić dla ciągów, w których 

nie występują żadne struktury.

Pojęcie algorytmicznej upraszczalności pozwala na ścisłe zdefiniowanie przypadkowości: 

ciągiem przypadkowym będzie ciąg, który nie może być algorytmicznie uproszczony. Może nie 

być   łatwo   stwierdzić   na   drodze   czysto   wizualnej,   czy   dany   ciąg   jest   upraszczalny,   gdyż 

występujące   w   nim   struktury   mogą   być   bardzo   wyrafinowane   i   głęboko   ukryte.   Każdy,   kto 

kiedykolwiek zajmował się łamaniem szyfrów, wie, że to, co na pierwszy rzut oka wydaje się 

bezładnym zbiorowiskiem liter, może w rzeczywistości zawierać strukturę komunikatu; trzeba 

jedynie   znać   klucz   do   szyfru.   Nieskończone   rozwinięcie   dziesiętne   (i   jego   dwójkowy 

odpowiednik) liczby nie wykazuje żadnych regularności, nawet w skali tysięcy cyfr, i cyfry te 

według   wszystkich   standardowych   testów   statystycznych   ułożone   są   czysto   losowo.   Na 

podstawie znajomości pierwszego tysiąca cyfr tego rozwinięcia nie mamy żadnej możliwości 

przewidzieć   tysiąc   pierwszej   cyfry.   A   mimo   to  

TI

  jest   algorytmicznie   upraszczalna,   bowiem 

dysponujemy prostym algorytmem pozwalającym na wyliczanie kolejnych miejsc po przecinku 

tej liczby.

Chaitin   wykazuje,   że   takie   pojęcie   matematycznej   złożoności   może   być   sensownie 

zastosowane   także   do   układów   fizycznych:   złożonością   układu   fizycznego   jest   minimalna 

długość algorytmu pozwalającego go opisać lub symulować jego działanie. Na pierwszy rzut oka 

definicja ta wydaje się dość arbitralna, ponieważ nie zostało określone, jakiego będziemy używać 

komputera. Okazuje się jednak, że nie ma  to większego znaczenia  w sytuacji, gdy wszytkie 

komputery uniwersalne są w stanie się nawzajem symulować. Podobnie nieistotne jest, jakim 

językiem programowania - LISP, BASIC, FORTRAN - się posłużymy,  gdyż  napisanie ciągu 

instrukcji   tłumaczącego   jeden   język   na   drugi   jest   sprawą   prostą.   Zazwyczaj   wydłużenie 

programu, spowodowane dołączeniem do niego instrukcji konwertujących go na inny język i 

pozwalających go uruchomić na innym komputerze, w porównaniu z jego pierwotną długością 

jest niewielkie, a więc nie jest ważne, jakiego komputera faktycznie używamy. Jest to wniosek 

bardzo istotny. Fakt, że definicja złożoności nie zależy od konkretnego komputera, świadczy o 

tym, iż udało się w niej uchwycić jakąś realną cechę, niezależną od tego, w jaki sposób się ją 

opisuje.

Więcej trudności przysparza pytanie, czy konkretny wybrany algorytm jest rzeczywiście 

background image

najkrótszym   z   możliwych.   Jeśli   uda   się   znaleźć   jeszcze   krótszy,   odpowiedź   jest   oczywiście 

negatywna. Natomiast w ogólnym przypadku okazuje się niemożliwe udzielenie definitywnej 

odpowiedzi   pozytywnej.   Powody   tego   stanu   rzeczy   sięgają   twierdzenia   Godła   o 

nierozstrzygalności. Jak pamiętamy, punktem wyjściowym tego twierdzenia była matematyczna 

wersja „antynomii kłamcy”, czyli paradoksalnych wypowiedzi samoreferencjalnych („To zdanie 

jest   fałszywe”).   Chaitin   zastosował   tę   ideę   do   programów   komputerowych.   Rozważmy 

przypadek, w którym komputer otrzymuje polecenie wykonania następującej operagi: „Szukaj 

ciągu cyfr, który może być wygenerowany tylko przez program dłuższy niż ten”. Jeśli operacja ta 

się powiedzie, szukany ciąg cyfr zostanie wygenerowany właśnie przez dany program, a więc na 

pewno   nie   może   „być   tylko   generowany   przez   program   dłuższy   niż   ten”.   Jedyną   możliwą 

konkluzją   jest,   że   poszukiwania   zakończą   się   niepowodzeniem,   nawet   jeśli   będą   trwały 

nieskończenie   długo.   Co   z   tego   wynika   dla   naszych   rozważań?   Program   poszukujący   miał 

znaleźć ciąg cyfr, który mógł być wygenerowany tylko przez program co najmniej równie długi, 

jak on sam,  co oznacza,  że wszystkie  krótsze programy były  z góry wykluczone.  Jednak w 

sytuacji, gdy poszukiwania zakończyły się niepowodzeniem, nie możemy wykluczyć krótszego 

programu. Po prostu w ogólnym przypadku nie jesteśmy w stanie stwierdzić, czy dany ciąg cyfr 

może być wynikiem działania programu krótszego niż ten, którym akurat dysponujemy.

Twierdzenie Chaitina ma interesujące konsekwencje w dziedzinie liczb losowych, tzn. 

przypadkowych ciągów cyfr. Jak już wyjaśniałem, za ciąg losowy uważamy ciąg, który nie może 

być algorytmicznie uproszczony. Jednak właśnie się przekonaliśmy, że nie da się stwierdzić, czy 

istnieje   krótszy   program   generujący   dany   ciąg.   Nigdy   nie   można   uzyskać   pewności,   że   nie 

istnieją   jeszcze   jakieś   inne   sprytne   możliwości   skrócenia   opisu,   a   więc   nie   jest   w   ogólnym 

przypadku możliwe udowodnienie, że dany ciąg jest losowy, jakkolwiek można wykazać, że tak 

nie   jest,   poprzez   faktyczne   znalezienie   sposobu   uproszczenia.   Wynik   ten   jest   tym   bardziej 

zadziwiający, iż można dowieść, że prawie wszystkie możliwe ciągi cyfr mają charakter losowy. 

A my nie jesteśmy w stanie o żadnym konkretnym ciągu tego definitywnie orzec!

Fascynującym może być przypuszczenie, że wobec tej definicji niektóre z występujących 

w przyrodzie pozornie przypadkowych zjawisk mogą nie mieć charakteru losowego. Kto wie na 

przykład,   czy   nie   dotyczy   to   indeterminizmu,   z   jakim   mamy   do   czynienia   w   mechanice 

kwantowej. W końcu z twierdzenia Chaitina wynika, że nigdy nie jesteśmy w stanie wykazać, iż 

ciąg   wartości   otrzymanych   w   wyniku   kolejnych   pomiarów   kwantowomechanicznych   jest 

background image

naprawdę losowy. Niewątpliwie wygląda on na losowy, ale to samo dotyczy rozwinięcia liczby 

TC

.  Dopóki   nie   mamy   „klucza   do   kodu”,   czyli   algorytmu   wyrażającego   ukryty   porządek, 

uprawnione jest założenie, że mamy do czynienia z czymś naprawdę przypadkowym. Czyż nie 

może być tak, że istnieje jakiś wyrafinowany „kosmiczny kod”, algorytm generujący wartości 

wielkości   kwantowych   w   przyrodzie,   a   obserwowany   indeterminizm   kwantowy   jest   tylko 

złudzeniem? Może kod ten kryje w sobie „przesłanie”, które mogłoby nam wyjawić najgłębsze 

tajemnice Wszechświata? Pomysł ten został już podchwycony przez niektórych teologów, którzy 

zauważyli, że indeterminizm kwantowy pozwala Bogu działać w świecie, „rzucając kwantową 

kostką” na poziomie atomów, bez naruszania klasycznych (tzn. niekwantowych) praw fizyki. W 

ten sposób istniałby podatny grunt do urzeczywistniania boskich celów w świecie bez sprawiania 

zbyt dużego kłopotu fizykom. W rozdziale 9 zajmę się pewną konkretną hipotezą tego typu.

Uzbrojony   w   swoją   algorytmiczną   definicję   Chaitin   był   w   stanie   wykazać,   że 

przypadkowością   przeniknięta   jest   cała   matematyka,   w   tym   także   arytmetyka.   W   tym   celu 

posłużył  się wynalezionym  przez siebie  monstrualnych  rozmiarów  równaniem,  zawierającym 

siedemnaście tysięcy zmiennych (ten typ równania określany jest w matematyce jako równanie 

diofantyńskie). W równaniu tym występuje parametr K, przybierający kolejne wartości całkowite 

l, 2, 3, i tak dalej. Chaitin postawił pytanie, czy przy danej wartości parametru K to olbrzymie 

równanie   ma   skończoną   czy   nieskończoną   liczbę   rozwiązań.   Można   sobie   wyobrazić,   że 

pracowicie rozwiązujemy je dla kolejnych wartości K, zapisując za każdym razem odpowiedź: 

„skończona”,   „skończona”,   „nieskończona”,   „skończona”,   „nieskończona”,   „nieskończona”... 

Czy w tym ciągu odpowiedzi będzie występowała jakaś regularność? Chaitin udowodnił, że nie. 

Jeżeli przypiszemy przypadkowi  skończonej liczby rozwiązań cyfrę O, a nieskończonej l, to 

powstały w ten sposób ciąg 001011... nie da się algorytmicznie uprościć; będzie zatem ciągiem 

losowym.

Wniosek   ten   ma   daleko   idące   konsekwencje.   Oznacza   bowiem,   że   nie   ma   ogólnego 

sposobu stwierdzenia dla wybranej wartości K bez bezpośrednich przeliczeń, czy to konkretne 

równanie diofantyńskie posiada skończoną czy nieskończoną liczbę rozwiązań. Innymi słowy, w 

przypadku tym nie istnieje systematyczna procedura pozwalająca z góry przewidzieć odpowiedzi 

na doskonale pod względem matematycznym postawiony problem: odpowiedzi mają charakter 

losowy. Niewielkim pocieszeniem może być fakt, że równanie diofantyńskie z siedemnastoma 

tysiącami   zmiennych   to   w   gruncie   rzeczy   dość   osobliwy   twór   matematyczny.   Skoro   raz 

background image

przypadkowość dostała się do matematyki, została ona nią do głębi skażona. Rozpowszechniona 

wizja   matematyki   jako   zbioru   precyzyjnych   twierdzeń,   spojonego   doskonale   określonymi 

związkami logicznymi, okazuje się nie odpowiadać prawdzie. W matematyce mamy do czynienia 

z   przypadkowością,   a   tym   samym   niepewnością,   w   równym   stopniu,   co   w   fizyce.   Według 

Chaitina, Bóg gra w kości nie tylko w mechanice kwantowej, ale nawet w przypadku arytmetyki 

liczb   całkowitych.   Uważa   on   zatem,   że   matematykę   należy   traktować   na   równi   z   naukami 

przyrodniczymi,   w   których   poznanie   rzeczywistości   odbywa   się   na   drodze   połączenia 

rozumowania logicznego i odkryć eksperymentalnych. Oczyma wyobraźni można już widzieć 

uniwersyteckie katedry matematyki eksperymentalnej.

Dość zabawne zastosowanie koncepcji algorytmicznej informacji związane jest z pewną 

liczbą   nieobliczalną,   zwaną   omega,   którą   Chaitin   definiuje   jako   prawdopodobieństwo,   że 

program   komputerowy   zatrzyma   się   po   wprowadzeniu   na   wejście   czysto   losowego   ciągu 

binarnego.   Prawdopodobieństwo  czegokolwiek   jest  wyrażane  liczbą  rzeczywistą   z  przedziału 

między 0 a 1; przy czym 0 odpowiada zdarzeniu niemożliwemu, a l zdarzeniu koniecznemu. Jest 

oczywiste,   że   liczba   omega   będzie   bliska   jedności,   ponieważ   przytłaczającą   większość 

możliwych   ciągów   na   wejściu   komputer   potraktuje   jako  losowe   i  natychmiast   zatrzyma   się, 

generując   odpowiedni   komunikat   o   błędzie.   Można   wszakże   udowodnić,   że   omega   jest 

algorytmicznie nieupraszczalna i jej rozwinięcia, zarówno w postaci dwójkowej, jak i dziesiętnej, 

mają   już   po   pierwszych   kilku   cyfrach   charakter   czysto   losowy.   Ponieważ   omega   jest 

zdefiniowana  poprzez odniesienia  do problemu  zatrzymania  się, ciągi cyfr  w jej rozwinięciu 

kodują poszczególne rozwiązania tego pro blemu. Tak zatem pierwszych n cyfr dwójkowego 

rozwinięcia tej liczby zawiera odpowiedź na pytanie, które z n-bitowych programów zatrzymają 

się, a które będą wykonywane w nieskończoność.

Charles   Bennett   zauważył,   że   wiele   słynnych   nierozwiązanych   problemów 

matematycznych,   takich   jak   Wielkie   Twierdzenie   Fermata,   może   być   sformułowane   jako 

problem zatrzymania się, gdyż zawierają stwierdzenia, iż coś nie istnieje (w tym przypadku zbiór 

liczb spełniających równanie Fermata). Wystarczy zaprogramować komputer, aby poszukiwał 

kontrprzykładu. Gdy uda mu się go znaleźć,  zatrzyma  się; w przeciwnym  przypadku  będzie 

międlił swe poszukiwania w nieskończoność. Ponadto, większość interesujących problemów da 

się wyrazić w postaci programów  zawierających  nie więcej niż kilka tysięcy bitów, a zatem 

znając już pierwszych kilka tysięcy cyfr rozwinięcia binarnego liczby omega, dysponowalibyśmy 

background image

rozwiązaniem   wszystkich   słynnych   problemów   matematycznych   tego   typu,   jak   również 

wszelkich innych  problemów  o porównywalnej  złożoności, które mogą  być  sformułowane  w 

przyszłości! ,,W ten sposób ogromna ilość informacji zostaje zgromadzona w bardzo niewielkiej 

przestrzeni pisze Bennett — albowiem kilka tysięcy cyfr, które bez trudu można wypisać na 

kartce   papieru,   zawiera   odpowiedzi   na   więcej   problemów   matematycznych,   niż   dałoby   się 

zapisać w całym Wszechświecie”

8

.

Niestety,   omegi   jako   liczby   nieobliczalnej   z   założenia   nigdy   nie   da   się   efektywnie 

wyznaczyć, niezależnie od tego, jak długo byśmy to próbowali zrobić. Zatem, poza mistycznym 

objawieniem, nie ma sposobu, byśmy mogli ją kiedykolwiek poznać. A gdyby nawet została nam 

ona  przekazana  w  sposób nadprzyrodzony,  i tak  byśmy  jej  nie rozpoznali,  gdyż  jako liczba 

losowa nie wyróżniałaby się niczym szczególnym.  Mielibyśmy przed sobą tylko pozbawiony 

wszelkich   regularności   ciąg   jedynek   i   zer.   Można   by   ją   co   najwyżej   zapisać   w   jakimś 

podręczniku.

Informacja   zawarta   w   liczbie   omega   jest   czymś   rzeczywistym,   a   jednak   na   zawsze 

ukrytym przed nami poprzez prawa logiki i paradoksy samoreferencji. Niepoznawalna Omega 

stanowi być może współczesny odpowiednik „magicznych liczb” u starożytnych Greków. Bennet 

okazuje się prawdziwie poetycki w opisywaniu jej mistycznego znaczenia:

Na   przestrzeni   dziejów   filozofowie   i   mistycy   poszukiwali   klucza   do   uniwersalnej 

mądrości  skończonej  formuły lub tekstu, który poznany i właściwie zrozumiany,  pozwoliłby 

uzyskać odpowiedź na każde pytanie. Do roli tej pretendowały Biblia, Koran, mityczne tajemne 

księgi Hermesa Trismegistosa i średniowieczna żydowska Kabała. Źródła uniwersalnej mądrości 

są zazwyczaj chronione przed ich nieuprawnionym użyciem przez to, że trudno do nich dotrzeć, 

ciężko je zrozumieć, gdy się je znajdzie, a ponadto są niebezpieczne w użyciu, gdyż  często 

udzielają odpowiedzi na inne, głębsze pytania, niż człowiek im zadaje. Na podobieństwo Boga, 

księgi ezoteryczne  są proste, lecz niemożliwe  do opisania,  wszechwiedzące  i przemieniające 

wewnętrznie   każdego,   kto   je   pozna.   (...)   Omega   jest   pod   wieloma   względami   liczbą 

kabalistyczną. Ludzkim rozumem możemy poznać, że ona istnieje, lecz nie ją samą. Poznając ją 

bliżej, musielibyśmy przyjąć wyrażający ją nieobliczalny ciąg cyfr na zasadzie wiary, jak słowa 

świętych ksiąg

9

.

background image

Kosmiczny program

Algorytmiczna teoria informacji dostarcza nam ścisłej definicji złożoności w oparciu o 

pojęcie obliczalności.  Gdy kontynuujemy nasz wątek Wszechświata  jako komputera  czy też, 

ściślej mówiąc,procesu obliczeniowego, rodzi się pytanie, czy Wszechświat w swej ogromnej 

złożoności   jest   algorytmicznie   upraszczalny.   Czy   istnieje   zwięzły   program   zdolny   do 

„wygenerowania” Wszechświata ze wszystkimi jego misternymi szczegółami?

Mimo   swej   złożoności   Wszechświat   wyraźnie   nie   jest   strukturą   przypadkową,   lecz 

obserwujemy w nim regularności. Słońce wschodzi codziennie bez wyjątku, światło porusza się 

zawsze z tą samą prędkością, zbiór mionów rozpada się zawsze z czasem połowicznego rozpadu 

dwóch milionowych  sekundy,  i  tak dalej. Regularności  te systematyzujemy  w  postaci,  którą 

nazywamy prawami przyrody. Jak już podkreślałem, prawa fizyki mają charakter analogiczny do 

programów   komputerowych.   Dla   danego   stanu   początkowego   układu   (wejście)   możemy   za 

pomocą praw obliczyć jego stan późniejszy (wyjście).

Prawa wraz z warunkami początkowymi zawierają w ogólnym przypadku znacznie mniej 

informacji niż potencjalne stany wyjściowe. Oczywiście, nawet jeżeli prawo fizyki zapisane na 

kartce wygląda prosto, zwykle wyrażane jest ono za pomocą abstrakcyjnej matematyki, która 

sama w sobie zawiera dość skomplikowaną strukturę. Niemniej jednak, informacje potrzebne do 

zrozumienia sensu symboli matematycznych można zawrzeć w kilku podręcznikach, podczas gdy 

liczba faktów opisywanych przy ich pomocy jest nieograniczona. Klasycznym przykładem jest tu 

przewidywanie zaćmień. Znajomość pozycji i ruchu Ziemi, Słońca i Księżyca  w określonym 

czasie pozwala na obliczenie dat przyszłych (i przeszłych) zaćmień Słońca i Księżyca. W ten 

sposób   jeden   zbiór   danych   wejściowych   generuje   wiele   zbiorów   danych   wyjściowych. 

Posługując   się   żargonem   informatycznym   możemy   powiedzieć,   że   zbiór   wszystkich   danych 

dotyczących zaćmień został algorytmicznie uproszczony do postaci praw wraz z odpowiednimi 

warunkami początkowymi. Zatem regularności obserwowane we Wszechświecie są przykładem 

jego algorytmicznej upraszczalności. Pod złożonością przyrody kryje się prostota fizyki.

Co   interesujące,   Ray   Solomonoff,   jeden   z   twórców   algorytmicznej   teorii   informacji, 

zajmował   się   właśnie   zagadnieniami   tego   rodzaju.   Chciał   on   znaleźć   sposób   określenia 

względnej   prawdopodobności   konkurujących   hipotez   naukowych.   Jeśli   dany   zbiór   faktów 

dotyczących   świata   może   być   uzasadniony   poprzez   więcej   niż   jedną   teorię,   w   jaki   sposób 

background image

możemy   rozstrzygnąć,   która   z   nich   jest   bardziej   prawdopodobna?   Czy   możemy   przypisać 

konkurencyjnym teoriom jakieś „wartości”, które można by ze sobą porównywać?

Najprościej jest posłużyć się brzytwą Ockhama i wybrać teorię o najmniejszej liczbie 

niezależnych   założeń.   Z   kolei,   jeżeli   traktujemy   teorię   jako   program   komputerowy,   a   fakty 

przyrodnicze   jako   wynik   działania   tego   programu,   to   brzytwa   Ockhama   każe   nam   wybrać 

najprostszy  program   zdolny  wygenerować   dany  wynik.   Znaczy  to,   że   powinniśmy   wybierać 

teorię,   czy   też   program,   pozwalające   na   możliwie   największe   algorytmiczne   uproszczenie 

faktów.

Z   tego   punktu   widzenia   całą   naukę   można   uważać   za   poszukiwanie   sposobów 

algorytmicznego uproszczenia danych obserwacyjnych. Ostatecznie jej celem jest wytworzenie 

zwięzłego   opisu   świata   w   oparciu   o   pewne   zasady   unifikujące,   które   nazywamy   prawami. 

„Gdyby nie algorytmiczne upraszczanie danych - pisze Barrow - cała nauka stałaby się czymś w 

rodzaju bezmyślnego kolekcjonowania znaczków - ślepym gromadzeniem wszystkich możliwych 

faktów. Nauka zasadza się na przekonaniu, że Wszechświat jest algorytmicznie upraszczalny, a 

współczesne poszukiwania Teorii Wszystkiego stanowią najwyższy wyraz tej wiary, wiary, że 

Wszechświat w swej różnorodności opiera się na kilku prostych, skończonych zasadach, które 

mogą być poznane przez człowieka”

10

.

Czy możemy więc wyciągnąć wniosek, że cała złożoność Wszechświata możliwa jest do 

ujęcia   w   postaci   bardzo   krótkiego   „kosmicznego   programu”,   podobnie   jak   świat 

skomplikowanych   struktur   ŻYCIA   sprowadza   się   do   paru   prostych   reguł,   powtarzanych 

wielokrotnie?   Jakkolwiek   w   przyrodzie   mamy   do   czynienia   z   wieloma   spektakularnymi 

przypadkami   uproszczenia   algorytmicznego,   nie   każdy   układ   da   się   w   ten   sposób   uprościć. 

Istnieje   klasa   procesów,   zwanych   „chaotycznymi”,   których   znaczenie   doceniono   dopiero 

niedawno. Procesy te nie wykazują żadnych regularności, przebiegając najwyraźniej w sposób 

czysto   losowy,   toteż   nie   dają   się   algorytmicznie   uprościć.   Do   tej   pory   sądzono,   że   chaos 

występuje tylko wyjątkowo, lecz obecnie naukowcy w coraz większym stopniu uznają, iż bardzo 

wiele układów, z jakimi mamy do czynienia w przyrodzie, ma charakter chaotyczny lub łatwo 

taki   przybiera  w  określonych  warunkach.  Najbardziej   znanymi  przykładami  są  tu  przepływy 

turbulentne, kapiące krany, migotanie przedsionków serca i ruch wahadła ze wspomaganiem.

Mimo iż chaos występuje tak powszechnie, nie ulega wątpliwości, że Wszechświat jako 

całość nie jest bynajmniej przypadkowy. Znajdujemy w nim wiele regularności, które następnie 

background image

kodyfikujemy w prawa, pozwalające realnie przewidywać przyszły rozwój zjawisk. Jednakże 

Wszechświat iiie jest też całkiem prosty.  Charakteryzuje się on subtelną złożonością, będącą 

czymś pośrednim pomiędzy prostotą z jednej strony a zupełną chaotycznością z drugiej. Można 

to  wyrazić,  mówiąc,   że  Wszechświat  odznacza   się  „złożonością   strukturalną”,   co omówiłem 

wyczerpująco   w   mojej   książce  The   Cosmic   Blueprint  [Projekt   kosmosu].   Wielokrotnie 

próbowano uchwycić tę ulotną własność w sposób matematyczny. Jedną z takich prób podjął 

Charles   Bennet,   wprowadzając   pojęcie   „głębokości   logicznej”.   Skupił   on   uwagę   nie   tyle   na 

stopniu złożoności  układu czy też ilości  informacji  niezbędnej  do jego wyspecyfikowania,  a 

bardziej na jej jakości czy też „wartości”. Bennet wyjaśnia to następująco:

„Typowy   ciąg   rzutów   monetą   zawiera   dużą   ilość   informacji,   lecz   niczego   nie 

komunikuje; w efemerydach podających położenia Księżyca i planet na każdy dzień w ciągu stu 

lat nie ma więcej informacji niż w równaniach ruchu i warunkach początkowych, które posłużyły 

do   ich   obliczenia,   lecz   oszczędzają   one   użytkownikowi   trudu   ponownego   wyliczania   tych 

pozycji. Wartość informacji dla odbiorcy wydaje się zatem polegać (...) na tym, co można by 

określić jako włożoną w nią redundancje rzeczy przewidywalne jedynie z trudnością, coś, do 

czego odbiorca w zasadzie byłby w stanie dojść na własną rękę, lecz jedynie znacznym nakładem 

czasu, pieniędzy i obliczeń. Innymi słowy, wartość informacji wyznaczona jest przez ilość pracy, 

obliczeniowej lub innego rodzaju, wykonanej przez jej nadawcę, której odbiorca nie musi już 

powtarzać”

11

.

Bennett zachęca nas, abyśmy myśleli o danym stanie świata jako zawierającym w sobie 

ukrytą informację, przede wszystkim informację o tym, w jaki sposób stan ten został osiągnięty. 

Możemy wtedy postawić pytanie, ile „pracy” musiał wykonać układ, tzn. ile musiał przetworzyć 

informacji, aby dojść do tego stanu. To właśnie określa on mianem głębokości logicznej. Ilość 

włożonej pracy można w sposób ścisły zdefiniować jako czas potrzebny na wyliczenie danego 

komunikatu przez najkrótszy program będący w stanie go wygenerować. Podczas gdy pojęcie 

algorytmicznej   złożoności   związane   jest   z   długością   najkrótszego   programu   pozwalającego 

otrzymać dany wynik, pojęcie głębokości logicznej opiera się na ilości czasu, jakiej potrzebuje 

ów minimalny program, aby wyprodukować tenże wynik.

Oczywiście nie można określić na podstawie samego wyglądu otrzymanego wyniku, w 

jaki   sposób   został   on   wytworzony.   Nawet   bardzo   szczegółowy,   sensowny   komunikat   mógi 

powstać na  drodze czysto  losowej. W dość wyświechtanym  przykładzie  mamy  małpę,  która 

background image

dysponując  odpowiednią  ilością  czasu jest  w stanie  wystukać  na  maszynie  dzieła  Szekspira. 

Niemniej   zgodnie   z   duchem   algorytmicznej   teorii   informacji   (i   brzytwą   Ockńama)   należy 

przypisać ten wynik działaniu minimalnego programu, ponieważ wymaga to najmniejszej liczby 

założeń ad hoc.

Postawmy   się   w   położenie   radioastronoma,   który   odebrał   tajemniczy   sygnał. 

Poszczególne jego impulsy ułożone w ciąg odpowiadają pierwszemu milionowi miejsc binarnego 

rozwinięcia liczby  

TC

,  Co mamy o tym sądzić? Wniosek, ze sygnał ten powstał przypadkowo, 

wymaga   założeń  ad   hoc  odpowiadających   milionowi   bitów,   podczas   gdy   alternatywne 

wyjaśnienie, ze sygnał został wyemitowany przez jakiś układ zdolny wyliczyć liczbę  n,  jest o 

wieie   bardziej   przekonujące.   Podobny   przypadek   miał   rzeczywiście   mielce   w   latach 

sześćdziesiątych,   gdy   Jocelyn   Bell,   doktorantka   z   Cambridge   wykonująca   z   Anthonym 

Hewishem   obserwacje   radioastronomiczne,   odebrała   regularny   sygnał   niewiadomego 

pochodzenia.   Jednakże   Bell   i   Hewish   szybko   odrzucili   hipotezę   o   sztucznym   charakterze 

zarejestrowanego   sygnału,   W   odróżnieniu   od   binarnego   rozwinięcia   liczby  

K

,  szereg 

powtarzających się z dużą regularnością impulsów ma niewielką głębokość logiczną - można 

powiedzieć, że jest logicznie płytki. Taką regularność można wyjaśnić na różne sposoby bez 

posługiwania   się   zbyt   wieloma   założeniami  ad   hoc.  jako   że   okresowość   jest   cecha   dość 

rozpowszechniona w przyrodzie.  W tym  przypadku jako źródło sygnału  rozpoznano wkrótce 

rotującą gwiazdę neutronową, czyli pulsar.

Struktury regularne są logicznie płytkie, ponieważ mogą być łatwo generowane przez 

proste, krótkie programy. Struktury przypadkowe są również logicznie płytkie gdyż ich program 

minimalny jest z definicji nie krótszy niż sama struktura, a zatem sam program jest trywialny i 

sprowadza   się   do   polecenia   „Drukuj   taką   strukturę”.   Natomiast   struktury   o   dużym   stopniu 

organizacji  wewnętrznej  są logicznie  głębokie,  gdyż  wygenerowanie  ich wymaga  wykonania 

szeregu skomplikowanych działań.

Jedną   z   oczywistych   dziedzin   zastosowania   pojęcia   głębokości   logicznej   są   układy 

biologiczne,   będące   najbardziej   spektakularnymi   przykładami   wewnętrznej   organizacji. 

Organizmy żywe odznaczają się dużą głębokością logiczną, ponieważ nie mogły one powstać 

inaczej  niż w wyniku bardzo długiego i złożonego łańcucha procesów ewolucyjnych.  Innym 

przykładem głębokiego logicznie układu mogą być złożone struktury generowane przez automaty 

komórkowe, takie jak ŻYCIE. Struktury te powstają w oparciu o bardzo proste reguły, tak więc z 

background image

algorytmicznego punktu widzenia ich złożoność jest niewielka. Istota złożoności struktur ŻYCIA 

nie polega zatem na regułach, lecz na ich wielokrotnym zastosowaniu. Komputer musi włożyć 

wiele pracy,  powtarzając daną regułę wiele razy,  zanim utworzy istotnie złożone struktury z 

prostych struktur początkowych.

Świat obfituje w przykłady głębokich logicznie układów, w których widać ogrom „pracy” 

włożonej w ich ukształtowanie.  Murray Gellmann  powiedział  mi  kiedyś, że układy głębokie 

logicznie   łatwo   rozpoznajemy   jako   takie,   gdyż   są   one   tymi,   które   chcielibyśmy   zachować. 

Rzeczy płytkie pod względem logicznym dają się łatwo odtworzyć. Cenimy sobie obrazy, teorie 

naukowe, dzieła muzyczne i literackie, rzadkie ptaki i diamenty, ponieważ niezwykle ciężko je 

wytworzyć. Samochody, kryształy soli i metalowe puszki nie są dla nas tak drogocenne, gdyż są 

znacznie płytsze logicznie.

Cóż zatem możemy ostatecznie powiedzieć o kosmicznym programie? Przez wieki uczeni 

określali mało ściśle Wszechświat jako „uporządkowany”, nie czyniąc rozróżnienia pomiędzy 

odmiennymi   typami   porządku:   prostym   i   złożonym.   Badania   nad   pojęciem   obliczalności 

pozwoliły   nam   rozpoznać,   że   świat   jest   uporządkowany   zarówno   w   tym   sensie,   iż   jest 

algorytmicznie upraszczalny, jak i w tym, że jest głęboki logicznie. Ład kosmiczny nie polega 

jedynie   na   prostej   powtarzalności,   lecz   również   na   wewnętrznej   złożoności,   i   to   właśnie   ta 

złożoność  sprawia, że  Wszechświat  ma  charakter  otwarty i dopuszcza  istnienie  obdarzonych 

wolną   wolą   ludzi.   Natomiast   przez   ostatnie   trzy   stulecia   nauka   zajmowała   się   właśnie 

powtarzalnością:   wyszukiwaniem   regularności   w   przyrodzie.   Dopiero   ostatnio,   wraz   z 

nadejściem   ery   szybkich   maszyn   cyfrowych,   dostrzeżono   ten   bardziej   fundamentalny   aspekt 

złożoności. Tak więc widzimy, że prawa fizyki odgrywają podwójną rolę. Nie tylko wyrażają 

proste regularności leżące u podłoża wszystkich zjawisk fizycznych, lecz także odpowiadają za 

wewnętrzną   strukturę   -   głębię   logiczną   -   świata.   To,   że   prawa   obowiązujące   w   naszym 

Wszechświecie   są   w   stanie   wypełnić   to   ważne   podwójne   zadanie,   stanowi   fakt   o   iście 

kosmicznym znaczeniu.

background image

Rozdział szósty

TAJEMNICA MATEMATYKI

Astronom James Jeans powiedział kiedyś, że Bóg jest matematykiem. W tym zwięzłym 

sformułowaniu wyraża się w metaforyczny sposób pogląd, który stał się obecnie dla omalże 

wszystkich naukowców wyznaniem wiary. Przekonanie, że podstawowy porządek świata da się 

ująć w postaci matematycznej, jest osią współczesnej nauki i mało kto podaje go w wątpliwość. 

Pogląd ten przyjął się tak głęboko, że żadnej dyscypliny wiedzy nie uważa się za należycie 

ugruntowaną, zanim riie uda się jej opisać w obiektywnym języku matematyki.

Jak   widzieliśmy,   przekonanie,   że   w   świecie   fizycznym   przejawia   się   ład   i   harmonia 

matematyczna, zrodziło się już w starożytnej Grecji. Jego rozkwit nastąpił w Europie okresu 

Odrodzenia wraz z pracami Galileusza, Newtona, Kartezjusza i innych ówczesnych uczonych. 

„Księga przyrody napisana jest językiem matematyki” - głosił Galileusz. Dlaczego tak jest, jest 

jedną z wielkich zagadek Wszechświata. Fizyk Eugene Wigner pisał o „niepojętej skuteczności 

matematyki w naukach przyrodniczych”, cytując C.S. Pierce'a, że „być może kryje się w tym 

jakaś tajemnica, która czeka wciąż na swego odkrywcę”. W niedawno opublikowanej książce

poświęconej temu zagadnieniu, zawierającej eseje dziewiętnastu uczonych (w tym i autora tej 

książki),   nie   udało   się   nie   tylko   zgłębić   tej   tajemnicy,   lecz   nawet   osiągnąć   jakiegokolwiek 

konsensusu. Wyrażone w niej opinie są zupełnie rozbieżne: jedni utrzymują, że ludzie po prostu 

wynaleźli matematykę w celu porządkowania doświadczanych faktów, inni są przekonani, iż pod 

matematycznym obliczem przyrody kryje się głęboka, istotna treść.

background image

Czy matematyka istnieje obiektywnie?

Zanim zajmiemy się zagadnieniem jej „niepojętej skuteczności”, ważne jest, by ustalić, 

czym właściwie jest matematyka. Istnieją dwie, zasadniczo sprzeczne, szkoły myślenia w tej 

kwestii. Pierwsza z nich utrzymuje, że matematyka jest tworem czysto ludzkim, druga, że istnieje 

ona   niezależnie   od   człowieka.   Spotkaliśmy   się   już   z   jedną   z   wersji   takiej   „twórczej”,   czyli 

formalistycznej,   interpretacji   w   rozdziale   4   przy   okazji   dyskusji   programu   Hilberta 

mechanicznego   dowodzenia   twierdzeń   matematycznych.   Przed   pracami   Godła   możliwy   był 

pogląd, że matematyka jest działalnością czysto formalną, będącą w istocie niczym więcej jak 

olbrzymią kolekcją logicznych reguł pozwalających przekształcać jedne ciągi symboli w inne. 

Uważano, że stanowi ona zamkniętą, samowystarczalną całość. Wszelkie związki ze światem 

zewnętrznym uznawano za przypadkowe, nie mające żadnego znaczenia dla uprawiania samej 

matematyki, które miało polegać na wynajdywaniu formalnych reguł i wszechstronnym badaniu 

ich konsekwencji. Jak już wspominałem w jednym z poprzednich rozdziałów, twierdzenie Godła 

o niezupełności matematyki położyło kres takiemu ściśle formalistycznemu stanowisku. Mimo to 

część matematyków nadal uważa, że matematyka jest wyłącznie tworem ludzkiego umysłu i nie 

ma innego znaczenia niż to, które przypisują jej matematycy.

Przeciwny kierunek myślenia znany jest pod nazwą platonizmu. Przypomnijmy sobie, że 

Platon   wyznawał   dualistyczną   wizję   rzeczywistości,   na   jednym   krańcu   umieszczając   świat 

fizyczny,   stworzony   przez   Demiurga,   zmienny   i   przemijający,   natomiast   na   drugim   świat 

wiecznych   i   niezmiennych   Idei,   będących   czymś   w   rodzaju   abstrakcyjnych   wzorców   dla 

elementów świata fizycznego. Obiekty matematyczne zaliczał on do świata idealnego. Zdaniem 

platoników   prawdy   matematyczne   nie   są   przez   nas   tworzone,   lecz   odkrywane.   Obiekty   i 

twierdzenia   matematyki   istnieją   obiektywnie,   transcendując   fizyczną   rzeczywistość   będącą 

przedmiotem naszej percepcji.

Aby uzmysłowić sobie w pełni sens tej dychotomii, przyjrzyjmy się jej na konkretnym 

przykładzie. Rozważmy twierdzenie: „Dwadzieścia trzy jest najmniejszą liczbą pierwszą większą 

od   dwudziestu.   Z   logicznego   punktu   widzenia   zdanie   to   może   być   albo   prawdziwe,   albo 

fałszywe.   W   istocie   jest   ono  prawdziwe.   Pytaniem,   jakie   sobie   stawiamy,   jest,   czy   jest   ono 

prawdziwe   w   bezczasowym,   absolutnym   sensie.   Czy   było   prawdziwe,   zanim   w   ogóle 

wynaleziono (czy też odkryto) liczby pierwsze? Platonicy odpowiadają na to twierdząco, gdyż 

background image

uważają, że liczby pierwsze istnieją abstrakcyjnie, niezależnie od tego, czy ludzie o nich wiedzą 

czy nie. Formaliści natomiast odrzuciliby takie pytanie jako absurdalne.

Co sądzą na ten temat zawodowi matematycy? Powiada się niekiedy, że matematycy są 

platonikami w godzinach pracy, a formalistami w czasie wolnym. Zajmując się bezpośrednio 

matematyką   trudno   oprzeć   się   wrażeniu,   że   odkrywa   się  coś   realnie   istniejącego,   tak   jak  w 

naukach   przyrodniczych.   Obiekty   matematyczne   żyją   własnym   życiem,   często   wykazując 

zupełnie   nieoczekiwane   własności.   Z  drugiej   strony,   koncepcja  transcendentnej  dziedziny,   w 

której   miałyby   bytować   obiekty   matematyczne,   wielu   matematykom   wydaje   się   nazbyt 

mistyczna, aby się do niej przyznawać, i jeśli się ich o to zapyta, zwykli twierdzić, że uprawianie 

matematyki polega wyłącznie na żonglerce symbolami i formułami.

Niemniej   jednak   istnieli   prominentni   matematycy   przyznający   się   otwarcie   do 

platonizmu.  Należał  do nich  Kurt Godeł. Jak można  było  tego  oczekiwać,  Godeł oparł  swą 

filozofię matematyki na wynikach swych badań nad rozstrzygalnością twierdzeń, rozumując, że 

zawsze   będą   istnieć   twierdzenia   matematyczne,   które   są   prawdziwe,   lecz   nie   mogą   być 

udowodnione na podstawie istniejących aksjomatów. Wyobrażał sobie zatem, iż owe prawdziwe 

twierdzenia   bytują   „gdzieś   tam”   poza  naszą   Jaskinią”,  w  dziedzinie  platońskich  idei.  Innym 

znanym   platonikiem   jest   matematyk   z   Oxfordu,   Roger   Penrose.   „Prawda   matematyczna 

przekracza ramy czystego formalizmu” - pisze on. „Często odnosimy wrażenie, że pod pojęciami 

matematycznymi  kryje się jakaś głębsza rzeczywistość, wykraczająca daleko poza deliberacje 

jakiegokolwiek konkretnego matematyka. Wygląda to, jak gdyby myśl człowieka kierowana była 

ku jakiejś zewnętrznej wobec niej, odwiecznie istniejącej prawdzie - prawdzie, która stanowi 

niezależną od nas rzeczywistość i ukazuje się nam jedynie w niewielkiej części”. Przytaczając 

jako przykład liczby zespolone, Penrose uważa, że mają one „głęboką, pozaczasową realność”.

Innym przykładem, który skłonił Penrose'a do przyjęcia platonizmu, jest coś, co nazwano 

„zbiorem Mandelbrota”, na cześć Benoita Mandelbrota, naukowca z firmy komputerowej IBM. 

Zbiór   ten,   którego   postać   geometryczna   zwie   się   „fraktalem”,   związany   jest   blisko   z   teorią 

chaosu   i   dostarcza   kolejnego   wspaniałego   przykładu,   że   w   wyniku   prostej   procedury 

rekurencyjnej   otrzymujemy   obiekt   o   niewiarygodnym   bogactwie   formy   i   złożoności. 

Generowany jest on poprzez wielokrotne stosowanie reguły (czy też odwzorowania) z -» z

2

 + c, 

gdzie z jest zmienną zespoloną, a c jest pewną stałą o wartości zespolonej. Regułę tę należy 

rozumieć następująco: weź pewną liczbę zespoloną z i zastąp ją przez z

2

 + c, następnie podstaw 

background image

ją za z i wykonaj tę samą operację, i tak dalej, i tak dalej. Otrzymywane kolejno liczby zespolone 

można przedstawić na płaszczyźnie, na przykład na kartce papieru lub ekranie komputerowym, 

przy czym każda liczba stanowi jeden punkt. Można stwierdzić, że dla jednych wartości c punkt 

ten szybko wędruje poza ekran, podczas gdy dla innych wartości porusza się przez cały czas 

wewnątrz   pewnego   ograniczonego   obszaru.   Z   kolei   dane   c   jako   liczba   zespolona   również 

odpowiada pewnemu punktowi na płaszczyźnie i właśnie zbiór wszystkich takich punktów c 

stanowi zbiór Mandelbrota. Zbiór ten ma tak niezwykle skomplikowaną strukturę, że nie sposób 

wprost opisać w słowach jego zadziwiającego piękna. Niejednokrotnie fragmenty tego zbioru 

były wystawiane jako dzieła sztuki na wystawach. Charakterystyczną cechą zbioru Mandelbrota 

jest   to,   że   każda   jego   część   może   być   powiększana   bez   końca   i   każdy   kolejny   poziom 

rozdzielczości ujawnia nowe bogactwo jego struktury.

Penrose zauważa, że Mandelbrot przystępując do badania własności tego zbioru zupełnie 

nie wyobrażał sobie z góry zawartej w nim wyrafinowanej struktury:

Struktura zbioru Mandelbrota nie może być przez nikogo z nas poznana w pełni swej 

złożoności; nie może też jej zrealizować żaden komputer. Wydaje się, jak gdyby nie była ona 

częścią naszego umysłu, lecz istniała niezależnie od nas. (...) Komputer wykorzystywany jest w 

tym   przypadku   zasadniczo   w   ten   sam   sposób,   jak   fizyk-eksperymentator   wykorzystuje   swą 

aparaturę doświadczalną do zgłębiania budowy świata fizycznego. Zbiór Mandelbrota nie został 

wymyślony, lecz odkryty. Tak jak Mount Everest, zbiór Mandelbrota po prostu jest!

Martin Gardner, matematyk i znany popularyzator nauki, zgadza się z tą opinią: „Penrose 

nie rozumie (ja również), jak ktoś mógłby przypuścić, że ta egzotyczna struktura jest mniej realna 

od Mount Everestu; może być ona penetrowana przez badaczy na podobieństwo dżungli”.

„Czy matematykę tworzymy, czy odkrywamy?” - pyta Penrose. Czyżby matematycy byli 

na tyle zafascynowani swoimi wynalazkami, iż mniemają, że istnieją one naprawdę? „Czy też 

odkrywają oni prawdy, które istniały już wcześniej, prawdy, których istnienie w żadnym stopniu 

nie zależy od tego, czy są one poznawane przez matematyków?” Opowiadając się wyraźnie za 

tym   drugim   poglądem,   Penrose   wskazuje,   że   w   przypadkach   takich,   jak   zbiór   Mandelbrota, 

„struktura zawiera o wiele więcej, niż się do niej pierwotnie włożyło. Można powiedzieć, że w 

tych przypadkach matematycy natykają się na »dzieło Boga«„. W samej rzeczy dostrzega on 

analogię pomiędzy matematyką a natchnionymi dziełami sztuki: „Wśród artystów dość często 

spotykane jest przekonanie, że w swych najwspanialszych dziełach odkrywają prawdy wieczne, 

background image

które istniały już wcześniej jakimś  eterycznym  rodzajem istnienia.  (...) Nie mogę oprzeć się 

poczuciu, że w przypadku matematyki argumenty za tym, by wierzyć w jakiś typ eterycznego, 

wiecznego bytowania (...) są o wiele silniejsze”.

Łatwo   wyrobić   sobie   wrażenie,   że   gdzieś   tam   istnieje   rozległa   kraina   struktur 

matematycznych,   a   matematycy   niczym   podróżnicy   badają   to   przedziwne,   choć   inspirujące 

terytorium, orientując się niekiedy według drogowskazów własnych doświadczeń lub kamieni 

milowych wcześniejszych odkryć. Posuwając się do przodu, napotykają coraz to nowe formuły i 

twierdzenia,   które   były   już   tam   wcześniej.   Matematyk   Rudi   Rucker   uważa,   że   obiekty 

matematyki bytują w swego rodzaju przestrzeni duchowej, którą nazywa „Krainą Myśli”, tak jak 

obiekty fizyczne bytują w przestrzeni fizycznej. „Ten, kto uprawia matematykę - pisze on - jest 

odkrywcą badającym Krainę Myśli, tak jak Armstrong, Livingstone czy Cousteau badali nowe, 

nieznane   obszary   świata   fizycznego”.   Zdarza   się,   że   różni   badacze   wędrują   po   tym   samym 

terytorium   i   potem   niezależnie   ogłaszają,   co   tam   znaleźli.   „Podobnie   jak   istnieje   jeden   dla 

wszystkich Wszechświat, tak i istnieje jedna dla wszystkich Kraina Myśli” - uważa Rucker. John 

Barrow   również   przytacza   przypadki   dokonywania   niezależnych   odkryć   w   matematyce   jako 

dowód „pewnego rodzaju jej obiektywności”, która niezależna jest od psychiki poszczególnych 

badaczy.

Penrose stawia tezę, że sposób, w jaki matematycy dokonują odkryć i komunikują sobie 

wzajemnie wyniki swoich badań, świadczy o faktycznym istnieniu dziedziny platońskich idei, 

czyli Krainy Myśli:

Wyobrażam   sobie,   że   postrzegając   pojęcia   matematyczne   umysł   sięga   platońskiego 

świata idealnego. (...) „Widzenie” prawd matematycznych przez człowieka polega na tym, że 

jego świadomość wdziera się do owego świata idei i wchodzi z tymi prawdami w bezpośredni 

kontakt. (...) Intersubiektywność dyskursu matematyków jest możliwa tylko dlatego, że każdy z 

osobna ma bezpośredni dostęp do prawdy - ich świadomość percypuje prawdy matematyczne 

bezpośrednio, w tym procesie „widzenia”. Ponieważ każdy z nich ma bezpośredni dostęp do 

świata platońskiego, łatwiej się im porozumieć ze sobą, niż można by tego oczekiwać. Obrazy, 

jakie tworzą się w ich umysłach podczas tych wypadów w dziedzinę idei, są prawdopodobnie w 

poszczególnych   przypadkach   zupełnie   odmienne,   lecz   mimo   to   matematycy   rozumieją   się 

nawzajem, ponieważ każdy z nich ma do czynienia z tym samym platońskim światem bytów 

wiecznych!

background image

Niekiedy to „wdzieranie się” następuje w sposób nagły i gwałtowny; określa się je wtedy 

mianem   matematycznego   olśnienia.   Francuski   matematyk   Jacąues   Hadamard,   który   badał   to 

zjawisko,   przytacza   przykład   Carla   Gaussa,   który   przez   całe   lata   zmagał   się   z   pewnym 

problemem dotyczącym  liczb całkowitych:  „Jak gdyby w nagłym  blasku błyskawicy,  stanęło 

przede mną rozwiązanie problemu. Nie jestem sam w stanie powiedzieć, co było nicią łączącą to, 

co   wiedziałem   poprzednio,   z   tym,   co   pozwoliło   mi   znaleźć   rozwiązanie”.   Hadamard   podaje 

również   znany   przypadek   Henri   Poincarego,   który   podobnie   przez   długi   czas   bezowocnie 

próbował   rozwiązać   problem   dotyczący   pewnych   funkcji   matematycznych.   Pewnego   dnia 

wyruszając   na   wyprawę   geologiczną   wsiadał   do   autobusu.   „Gdy   tylko   postawiłem   nogę   na 

stopniu, zaświtała mi idea rozwiązania, przy czym nic w moich wcześniejszych myślach w żaden 

sposób   tego   nie   zapowiadało”   -   relacjonował   później.   Był   tak   pewny,   że   znalazł   właściwe 

rozwiązanie,   iż   nie   myślał   w   tym   momencie   o   tym   więcej   i   prowadził   dalej   rozmowy   ze 

współtowarzyszami   podróży.   Po   powrocie   z   wycieczki   spokojnie,   bez   wysiłku,   zapisał   cały 

dowód.

Penrose   wspomina   podobne   zdarzenie,   jakie   przytrafiło   mu   się   podczas   pracy   nad 

czarnymi dziurami i osobliwościami czasoprzestrzeni. Rozmawiał właśnie z kimś na ruchliwej 

londyńskiej ulicy i miał właśnie przejść przez jezdnię, gdy przyszła mu do głowy zasadnicza 

idea, jakkolwiek na tak krótki moment, że kiedy podjął ponownie rozmowę po drugiej stronie 

ulicy, zupełnie o niej zapomniał. W jakiś czas potem ogarnął go dziwny nastrój podniecenia i 

starał   sobie   uzmysłowić,   co   wydarzyło   się   tego   dnia.   W   końcu   przypomniał   sobie   o   owym 

przebłysku natchnienia i od razu wiedział, że ma w ręku klucz do rozwiązania problemu, którym 

zajmował się od dłuższego czasu. Dopiero później udało mu się przeprowadzić ścisły dowód, że 

idea ta rzeczywiście była słuszna.

Wielu fizyków  podziela tę platońską wizję matematyki.  Na przykład,  Heinrich Hertz, 

uczony,   który   pierwszy   w   warunkach   laboratoryjnych   wytworzył   i   odebrał   fale   radiowe, 

powiedział kiedyś: „Nie można uwolnić się od poczucia, że te formuły matematyczne istnieją 

niezależnie od nas i są nawet mądrzejsze od tych, co je odkryli, gdyż otrzymujemy z nich więcej, 

niż zostało w nie pierwotnie włożone”.

Zapytałem raz Richarda Feynmana, czyjego zdaniem matematyka, a tym samym i prawa 

fizyki, istnieją obiektywnie, a on mi odpowiedział:

Problem   istnienia   jest   zarazem   bardzo   interesujący   i   trudny.   Jeśli   nawet   uprawia   się 

background image

matematykę, wyciągając jedynie wnioski z przyjętych założeń, można odkryć ciekawą rzecz przy 

dodawaniu sześcianów liczb całkowitych. Jeden do sześcianu jest jeden; dwa do sześcianu jest 

dwa razy dwa razy dwa, co daje osiem; trzy do sześcianu jest trzy razy trzy razy trzy, co daje 

dwadzieścia siedem. Jeśli dodamy do siebie te trzy sześciany, jeden plus osiem plus dwadzieścia 

siedem - na tym poprzestańmy - otrzymamy trzydzieści sześć, to jest kwadrat innej liczby, sześć, 

która jest sumą trzech tych samych liczb całkowitych: jeden plus dwa plus trzy. (...) Tego, co ci 

powiedziałem, mogłeś wcześniej nie wiedzieć. Mógłbyś zatem zapytać: „Skąd to jest, co to jest, 

gdzie to się znajduje, w jaki sposób to istnieje?” A przecież do tego doszedłeś. Kiedy odkrywa 

się coś takiego, ma się wrażenie, że było to prawdą, jeszcze zanim się o tym dowiedzieliśmy. Tak 

więc rodzi się myśl, że to musiało jakoś gdzieś istnieć, ale nie ma miejsca, gdzie mogłoby to 

istnieć. To tylko takie wrażenie. (...) A w przypadku fizyki kłopot jest podwójny. Odkrywamy te 

matematyczne zależności, lecz one odnoszą się do świata, więc problem, gdzie one istnieją, jest 

jeszcze bardziej pogmatwany. (...) Są to pytania filozoficzne, na które nie umiem odpowiedzieć.

background image

Kosmiczny komputer

W ostatnich latach na rozważania o naturze matematyki coraz większy wpływ wywierają 

informatycy, którzy mają na tę dziedzinę swój własny pogląd. Nie powinno raczej nikogo dziwić, 

że   większość   informatyków   uważa   komputer   za   zasadniczy   element   każdego   systemu 

myślowego,   który   miałby   nadawać   sens   matematyce.   W   skrajnej   postaci   naczelną   tezą   tej 

filozofii jest: „To, czego nie można obliczyć, nie ma żadnego sensu”. W szczególności, każdy 

opis świata fizycznego musi być oparty jedynie o operacje matematyczne, które da się faktycznie 

przeprowadzić,   przynajmniej   w   zasadzie,   za   pomocą   komputera.   Wyklucza   to   oczywiście   z 

miejsca teorie, jakie opisywałem w rozdziale 5, w których wielkości fizyczne mogą przyjmować 

wartości   nieobliczalne.   Nie   są   dopuszczalne   także   operacje   matematyczne   obejmujące 

nieskończoną liczbę kroków. To z kolei wyklucza  olbrzymie  obszary matematyki,  z których 

część   była   już   z   powodzeniem   stosowana   do   opisu   układów   fizycznych.   Co   jeszcze 

poważniejsze, nawet wyniki matematyczne wymagające skończonej, lecz bardzo dużej liczby 

kroków są podejrzane, gdy weźmie się pod uwagę, że moc obliczeniowa całego Wszechświata 

jest ograniczona. Wyznawcą tego poglądu jest Rolf Landauer: „Nie tylko fizyka określa, co są w 

stanie   zrobić   komputery,   lecz   to,   co   są   w   stanie   zrobić   komputery,   wyznacza   z   kolei 

fundamentalną   naturę   praw   fizyki.   W   końcu   prawa   fizyki   są   algorytmami   przetwarzania 

informacji i nie miałyby sensu, gdyby nie dało się ich zrealizować w naszym Wszechświecie przy 

użyciu jego praw i zasobów”.

Jeżeli   sensowność   matematyki   zależy   od   dostępnych   zasobów   Wszechświata,   ma   to 

bardzo daleko idące konsekwencje. Zgodnie ze standardowym modelem Wszechświata, od jego 

momentu początkowego światło mogło przebyć jedynie skończony odcinek drogi, ponieważ wiek 

Wszechświata jest skończony. Żaden fizyczny obiekt ani oddziaływanie, w szczególności żadna 

informacja, nie mogą się przenosić z prędkością większą od prędkości światła. Wynika stąd, że 

obszar Wszechświata, z którym jesteśmy przyczynowo powiązani, zawiera jedynie skończoną 

liczbę cząstek. Zewnętrzna granica tego obszaru znana jest pod nazwą horyzontu czasowego. Jest 

to najdalsza płaszczyzna w przestrzeni, do której światło wyemitowane w pobliżu nas krótko po 

Wielkim   Wybuchu   było   w   stanie   dotrzeć   do   chwili   obecnej.   Jeśli   chodzi   o   obliczenia,   w 

oczywisty sposób jedynie te obszary Wszechświata, pomiędzy którymi możliwa jest wymiana 

informacji, mogą być uznane za wchodzące w skład tego samego układu obliczeniowego; w tym 

background image

przypadku będzie to obszar zawarty wewnątrz naszego horyzontu. Wyobraźmy sobie, że każdą 

cząstkę w tym obszarze dało się zaprząc do obliczeń, tworząc gigantyczny kosmiczny komputer. 

Jednak nawet ta, przerażająca wręcz swym ogromem, maszyna miałaby wciąż skończoną moc 

obliczeniową, ponieważ zawiera skończoną liczbę cząstek (w tym przypadku około 10

80

). Nie 

mogłaby, na przykład, nawet obliczyć liczby z nieskończoną dokładnością. Landauer twierdzi, 

że skoro Wszechświat jako całość nie może czegoś obliczyć, należy o tym zapomnieć. Tak więc 

nawet „zwykłe n” nie byłoby dobrze określoną wielkością. Oznaczałoby to, że nie można by już 

uważać, że stosunek obwodu koła do jego średnicy wyraża się dokładnie konkretną liczbą nawet 

w wyidealizowanym przypadku doskonałych linii geometrycznych, lecz jest nieoznaczony.

Jeszcze trudniejszy do przyjęcia jest fakt, że w sytuacji, gdy horyzont rozszerza się z 

czasem, w miarę jak światło porusza się w głąb kosmosu, zasoby zawarte w obszarze leżącym 

wewnątrz horyzontu były w przeszłości mniejsze. Wynika stąd, że matematyka jest zależna od 

czasu   -   wniosek   stojący   w   całkowitej   sprzeczności   z   platońskimi   poglądami,   że   prawdy 

matematyki  są pozaczasowe, transcendentne i wieczne. Na przykład, w sekundę po Wielkim 

Wybuchu   w   objętości   zawartej   wewnątrz   horyzontu   mieściłaby   się   jedynie   niewielka   część 

obecnej   liczby   cząstek   elementarnych.   W   tak   zwanym   czasie   Plancka   (10

4a

  s)   wewnątrz 

horyzontu mogła znajdować się tylko jedna cząstka. Zatem moc obliczeniowa Wszechświata w 

czasie Plancka była zasadniczo zerowa. Wyciągając z tez Landauera logiczne wnioski, oznacza 

to, że w tej epoce cała matematyka pozbawiona była wszelkiego sensu. Gdyby tak miało być, to 

próby zastosowania fizyki matematycznej do opisu wczesnego Wszechświata, w szczególności 

cały program kwantowej kosmologii i problem początku Wszechświata opisany w rozdziale 2 

również straciłyby sens.

background image

Dlaczego my?

Jedyną niezrozumiałą rzeczą we Wszechświecie jest to, że jest on zrozumiały.

Albert Einstein

Sukcesy współczesnej nauki często przysłaniają nam zdumiewający fakt, że nauka jest w 

ogóle możliwa. Jakkolwiek większość ludzi przyjmuje to za rzecz oczywistą, jest to fakt zarówno 

niezmiernie   szczęśliwy,   jak   i   niezmiernie   tajemniczy,   że   jesteśmy   w   stanie   zgłębiać   tajniki 

przyrody   za   pomocą   metody   naukowej.   Jak   już   wyjaśniałem,   istotą   nauki   jest   odkrywanie 

struktur   i   regularności   w   przyrodzie   poprzez   wynajdywanie   sposobów   algorytmicznego 

upraszczania   danych   obserwacyjnych.   W   surowych   danych   obserwacyjnych   rzadko   da   się 

dostrzec bezpośrednio jakieś regularności. Przyroda ukrywa przed nami swój ład, głęboko go 

kodując. Postęp w nauce dokonuje się poprzez łamanie tego kosmicznego kodu, wnikanie pod 

powierzchnię  surowych  danych  w poszukiwaniu ukrytego  porządku. Przyrównywałem  nieraz 

badania podstawowe do rozwiązywania krzyżówki. Eksperymenty i obserwacje dostarczają nam 

wskazówek do poszczególnych „haseł”, lecz są one wyrażone nie wprost i wymagają znacznych 

umiejętności, aby je odpowiednio rozszyfrować. Wraz z odgadnięciem kolejnego „hasła” ukazuje 

się nam następny fragment ogólnej struktury przyrody. Zarówno w przypadku krzyżówki, jak i 

świata  fizycznego,  widzimy,   że  niezależne  „hasła”   łączą   się w  spójną  całość,  zazębiając  się 

wzajemnie, tak więc im więcej haseł odgadniemy, tym łatwiej znaleźć brakujące ogniwa.

Zadziwiające w tym wszystkim jest to, że ludziom rzeczywiście udaje się złamać ten kod, 

że umysł człowieka jest wystarczająco wyposażony intelektualnie, by móc „odsłaniać tajemnice 

przyrody” i pokusić się o rozwiązanie jej „tajemnej krzyżówki”. Łatwo wyobrazić sobie świat, w 

którym regularności przyrody nie byłyby ukryte, lecz widoczne dla każdego na pierwszy rzut 

oka. Możemy sobie także wyobrazić inny świat, w którym bądź to nie ma żadnych regularności, 

bądź są one tak ukryte, tak wyrafinowane, że rozwiązanie kosmicznego kodu przekraczałoby 

możliwości   umysłu   człowieka.   My   natomiast   doświadczamy   sytuacji,   w   której   trudność 

kosmicznego kodu jest, jak się wydaje, dokładnie dostosowana do możliwości intelektualnych 

człowieka. Co prawda, rozszyfrowywanie zagadek przyrody sprawia nam wiele trudności, mimo 

to odnosimy na tym polu wiele sukcesów. Uprawianie nauki jest na tyle wymagającym zadaniem, 

że przyciąga najlepsze umysły,  lecz nie na tyle ciężkim, by ich wysiłki poszły na marne, co 

background image

mogłoby zniechęcić do dalszego ich podejmowania.

Tajemnicą pozostaje to, że, jak się uważa, zdolności ludzkiego umysłu rozwinęły się na 

drodze ewolucji biologicznej, która nie rna bezpośrednio żadnego związku z uprawianiem nauki. 

Nasze   mózgi   ukształtowały   się   pod   wpływem   wymogów   reagowania   i   dostosowania   do 

środowiska,   takich   jak   konieczność   polowania   na   zwierzynę,   ucieczki   przed   drapieżnikami, 

unikania   spadających   przedmiotów   itp.   Co   to   ma   wspólnego   z   odkrywaniem   praw 

elektromagnetyzmu czy też poznawaniem struktury atomu? Intryguje to również Johna Barrowa: 

„Dlaczegóż   nasze   procesy   poznawcze   dostosowały   się   do   podejmowania   takich 

ekstrawaganckich celów, jak zrozumienie całego Wszechświata? - pyta on. - Dlaczego akurat 

my?   Żadna   z   wyrafinowanych   koncepcji   naukowych   nie   daje   jakiejkolwiek   przewagi,   która 

mogłaby wpłynąć na selekcję w procesie ewolucji. (...) Jakże szczęśliwym zbiegiem okoliczności 

jest,   że   nasze   umysły   (przynajmniej   niektóre)   wykształciły   się   tak,   by   zgłębiać   tajemnice 

Przyrody”.

Tajemnica naszego niesamowitego powodzenia w rozwijaniu nauki pogłębi się jeszcze 

bardziej,   gdy   uświadomimy   sobie,   jak   bardzo   ograniczone   są   możliwości   uczenia   się   u 

człowieka.   Z  jednej  strony,  ograniczona  jest  szybkość   przyswajania   nowych   faktów  i  pojęć, 

szczególnie tych o bardziej abstrakcyjnym charakterze. Normalnie trzeba co najmniej piętnaście 

lat nauki, aby student opanował matematykę i inne dyscypliny nauki w stopniu wystarczającym, 

by móc próbować wnieść własny wkład w badania podstawowe. Jednakże jest faktem ogólnie 

znanym,  że,   dotyczy  to   zwłaszcza   fizyki   teoretycznej,  największe  sukcesy  w   nauce  odnoszą 

ludzie mający po dwadzieścia kilka, najwyżej trzydzieści kilka lat. Newton, na przykład, miał 

zaledwie cztery lata, gdy odkrył prawo powszechnego ciążenia. Dirac jeszcze jako doktorant 

sformułował swe relatywistyczne równanie falowe, które doprowadziło do odkrycia antymaterii. 

Einstein miał dwadzieścia sześć lat, gdy opracował szczególną teorię względności, podstawy 

mechaniki statystycznej  i teoretyczne podstawy zjawiska fotoelektrycznego w ciągu zaledwie 

kilku miesięcy wytężonej pracy twórczej. Jakkolwiek starsi naukowcy gotowi są temu przeczyć, 

istnieją przekonywające dowody, że prawdziwie nowatorska twórczość naukowa ustaje około 

czterdziestki. Już znaczny zasób wiedzy i jeszcze znaczne zdolności twórcze tworzą naukowca, 

dając mu krótki, lecz efektywny „przedział sposobności”, kiedy to może dokonać znaczących 

odkryć  naukowych. Jednakże te ograniczenia intelektualne mają swe źródło w przyziemnych 

aspektach   ewolucji biologicznej  i  związane   są z  długością  życia,   budową  mózgu  i  strukturą 

background image

społeczną  u ludzi.  Jakże dziwne zatem,  że czynniki  zestawione  razem dopuszczają okres, w 

którym możliwe jest twórcze uprawianie nauki.

I w tym przypadku możemy sobie wyobrażać świat, w którym wszystkim ludziom dana 

jest   wystarczająca   ilość   czasu   na   poznanie   wszystkich   faktów   i   koncepcji   niezbędnych,   by 

uprawiać badania podstawowe, albo też świat, w którym nauczenie się wszystkich niezbędnych 

rzeczy trwałoby tak długo, że nie stałoby na to życia u człowieka, a co najmniej okres twórczy 

minąłby   na   długo   przed   ukończeniem   tej   edukacji.   A   żaden   aspekt   tego   niesamowitego 

„dostrojenia” człowieka do działalności poznawczej nie jest bardziej zadziwiający niż istnienie 

matematyki, wytworu ludzkiego umysłu zdolnego zgłębiać tajniki Wszechświata.

background image

Dlaczego prawa przyrody mają charakter matematyczny?

Niewielu   ludzi   zajmujących   się   nauką   zastanawia   się,   dlaczego   podstawowe   prawa 

przyrody   mają   postać   matematyczną,   uważając   to   za   rzecz   oczywistą.   Jednak   fakt,   że 

matematyka jest skuteczna w odniesieniu do świata fizycznego, i to tak zdumiewająco skuteczna, 

wymaga uzasadnienia, gdyż nie wiadomo, dlaczego mielibyśmy prawo oczekiwać, że świat da 

się dobrze opisać za pomocą matematyki. Jakkolwiek większość naukowców przyjmuje, że tak 

musi być, dzieje nauki każą być tu ostrożnym. Wiele aspektów świata było długo uważanych za 

oczywiste,   a   potem   okazywało   się,   że   są   one   wynikiem   szczególnych   warunków   lub 

okoliczności.   Klasycznym   przykładem   może   tu   być   newtonowska   koncepcja   absolutnego 

uniwersalnego czasu. W życiu  codziennym koncepcja ta w pełni się potwierdza, ale, jak się 

okazuje, tylko dlatego, że poruszamy się o wiele wolniej niż światło. Może więc i matematyka 

jest skuteczna tylko ze względu na jakieś szczególne okoliczności?

Jedna z postaw wobec tego problemu polega na przyjęciu, że owa „niepojęta skuteczność 

matematyki”,   by   posłużyć   się   tu   znanym   sformułowaniem   Wignera,   jest   uwarunkowana 

kulturowo   jako   wynik   sposobu,   w   jaki   ludzie   zdecydowali   się   poznawać   świat.   Już   Kant 

ostrzegał, że jeżeli patrzymy na świat przez różowe okulary, nic dziwnego, że widzimy go na 

różowo.   Mamy   skłonność   -   twierdził   -   przenosić   na   świat   naszą   własną   preferencję   do 

matematyki. Innymi słowy, to my narzucamy przyrodzie ład matematyczny, a nie przyroda nam. 

Jest to dość poważny argument. Nie ulega wątpliwości, że naukowcy badając przyrodę chętnie 

posługują się matematyką i skłonni są w większym stopniu podejmować te zagadnienia, które 

można wyrazić w sposób matematyczny. Aspektom przyrody, których nie da się łatwo ująć w 

ramy matematyki (np. dotyczących układów biologicznych i społecznych), zwykle przypisuje się 

mniejszą   wagę,   określając   jako   fundamentalne   jedynie   aspekty   spełniające   kryteria 

matematyzowalności. Zatem w przypadku pytania: „Dlaczego fundamentalne prawa przyrody 

mają charakter matematyczny”, narzuca się trywialna odpowiedź: „Ponieważ za fundamentalne 

uznajemy tylko te prawa, które są matematyczne”.

Sposób, w jaki postrzegamy świat, w oczywisty sposób determinowany jest częściowo 

przez   budowę   naszego   mózgu.   W   procesie   ewolucji   biologicznej,   z   nie   znanych   nam   bliżej 

powodów, mózg człowieka ukształtował się w ten sposób, że łatwo wyszukuje i skupia uwagę 

właśnie na matematycznych aspektach przyrody. Jak już mówiłem w rozdziale l, można sobie 

background image

wyobrazić,   że   gdzieś   w   kosmosie   żyją   inteligentne   istoty,   u   których   ewolucja   przebiegała 

zupełnie odmiennie i ich mózgi nie są podobne do naszych. Istoty te mogłyby nie podzielać 

naszych kategorii myślenia, w szczególności naszego upodobania do matematyki, stosując w 

poznaniu świata kategorie zupełnie dla nas niezrozumiałe.

Czyż   zatem   skuteczność   matematyki   w   naukach   przyrodniczych   jest   jedynie 

uwarunkowanym   kulturowo   wybrykiem,   przypadkowym   wytworem   ewolucji   biologicznej   i 

społecznej człowieka? Niektórzy uczeni i filozofowie utrzymują, że tak jest rzeczywiście, ale 

przyznaję, że twierdzenie to, z wielu powodów, wydaje mi się nazbyt pochopne. Po pierwsze, 

znaczna część matematyki, która wykazała tak spektakularną skuteczność w fizyce, powstała w 

wyniku czysto abstrakcyjnych rozważań matematyków na długo przed zastosowaniem do opisu 

rzeczywistego   świata.   Nie   brali   zupełnie   pod   uwagę   możliwości   ich   zastosowania.   Ten 

„niezależny   świat,   stworzony   mocą   czystego   rozumu”,   jak   określił   go   James   Jeans,   dopiero 

później okazał się użyteczny w badaniach naukowych. Angielski matematyk G.H. Hardy napisał, 

że matematykę uprawia się dla jej piękna, a nie zastosowań praktycznych, szczycąc się wręcz, iż 

zupełnie nie wyobraża sobie, by jego prace znalazły kiedykolwiek jakieś zastosowanie. A jednak 

odkrywamy, czasem w wiele lat później, że przyroda postępuje według reguł matematycznych, 

które już dawno zostały sformułowane przez czystych matematyków. (Jak na ironię, dotyczy to 

również znacznej części dorobku Hardy'ego). Jeans zwrócił uwagę, że matematyka jest tylko 

jedną   z   wielu   konstrukcji   intelektualnych.   Podejmowane   były   próby   skontruowania   modelu 

świata jako, na przykład, żywego organizmu, czy też jako mechanizmu, które ostatecznie nie 

powiodły się. Dlaczego metoda matematyczna miałaby być tak płodna, gdyby nie związana była 

z jakąś realną własnością w przyrodzie?

Penrose,   który   również   podejmuje   to   zagadnienie,   zdecydowanie   odrzuca   tezę   o 

uwarunkowaniu kulturowym matematyki. Nawiązując do zdumiewającego sukcesu teorii takich 

jak ogólna teoria względności, pisze on:

Trudno mi przypuścić, jak utrzymują niektórzy,  że tak DOSKONAŁE teorie miałyby 

powstać   w   wyniku   czysto   przypadkowej   selekcji   naturalnej   spośród   różnych   koncepcji 

intelektualnych, w której przetrwałyby tylko te najlepsze. Ich doskonałość jest zbyt  duża, by 

mogły być jedynie zbiorem przypadkowo dobranych idei. Musi zachodzić jakiś głęboko uk

r

yty 

powód tak  znacznej  zgodności  między  matematyką  a fizyką,  tj. między platońskim światem 

idealnym a światem fizycznym.

background image

Penrose   przyznaje   się   do   przekonania,   które,   jak   stwierdziłem,   jest   dość 

rozpowszechnione wśród naukowców, że najnowsze dokonania w dziedzinie fizyki teoretycznej 

stanowią   faktycznie   odkrycie   nowych   aspektów   rzeczywistości,   a   nie   tylko   nadanie   danym 

eksperymentalnym postaci bardziej strawnej dla możliwości poznawczych człowieka.

Wysuwano także argument, że to nasz mózg przystosował się ewolucyjnie w ten sposób, 

że odzwierciedla własności fizycznego świata, w tym także jego własności matematyczne, nic 

zatem dziwnego, iż odkrywamy matematykę w przyrodzie. Ale jak już wspominałem, to właśnie 

jest   wielką   zagadką,   że   w   ludzkim   mózgu   rozwinęły   się   tak   nadzwyczajne   zdolności   do 

uprawiania matematyki, gdyż nie widać, by abstrakcyjna matematyka mogła mieć jakąkolwiek 

wartość dla przetrwania gatunku. To samo można odnieść do uzdolnień muzycznych.

Wiedzę   o   świecie   uzyskujemy   na   dwa   odrębne   sposoby.   Pierwszym   z   nich   jest 

bezpośrednia   percepcja,   drugim   zastosowanie   logicznego   myślenia   i   wyższych   funkcji 

intelektualnych. Rozważmy przypadek, że obserwujemy spadający kamień. Zjawisko fizyczne 

zachodzące   w   zewnętrznym   świecie   odzwierciedla   się   w   naszym   umyśle,   ponieważ   mózg 

konstruuje wewnętrzny model świata, w którym coś, co odpowiada fizycznemu przedmiotowi, 

„kamieniowi”, porusza się w trójwymiarowej przestrzeni: widzimy spadający kamień. Z drugiej 

strony, upadek kamienia można rozpatrywać w zupełnie odmienny, znacznie głębszy sposób. Na 

podstawie   praw   Newtona,   uzupełnionych   odpowiednią   matematyką,   można   utworzyć   sobie 

innego rodzaju model spadającego kamienia. Nie jest to model umysłowy, tak jak w przypadku 

percepcji, niemniej jednak stanowi on konstrukcję umysłu, w której pojmuje się dany spadający 

kamień   jako   konkretny   przypadek   pewnej   szerszej   kategorii   procesów   fizycznych.   Model 

matematyczny   oparty   na   prawach   fizyki   nie   jest   czymś,   co   naprawdę   widzimy,   niemniej 

dostarcza   on,   na   swój   abstrakcyjny   sposób,   pewnego   typu   wiedzy   o   świecie,   i   to   wiedzy 

wyższego rzędu.

Wszystko   wskazuje   na   to,   że   ewolucja   typu   darwinowskiego   przystosowała   nas   do 

poznawania świata poprzez bezpośrednią percepcję. Zapewniało to bez wątpienia przewagę w 

procesie   doboru   naturalnego,   jednakże   nie   ma   żadnych   oczywistych   związków   pomiędzy 

poznawaniem zmysłowym tego typu a poznaniem intelektualnym. Studenci często zmagają się z 

pewnymi działami fizyki, jak mechanika kwantowa i teoria względności, ponieważ starają się je 

zrozumieć   poprzez   wizualizację.   Próbują   „zobaczyć”   zakrzywioną   przestrzeń   czy   też   ruch 

elektronu w atomie oczyma duszy i zupełnie im się to nie udaje. Nie jest to bynajmniej ich wina - 

background image

nie sądzę, by jakikolwiek człowiek był w stanie przedstawić sobie wiernie te rzeczy w sposób 

obrazowy. Nic też w tym dziwnego - efekty kwantowe i relatywistyczne nie uwidaczniają się 

zasadniczo w życiu codziennym i ich uwzględnienie w tworzonym przez umysł modelu świata 

nie dawałoby naszym mózgom żadnej wyraźnej przewagi ewolucyjnej. Pomimo to fizycy są w 

stanie zgłębiać świat fizyki kwantowej i relatywistycznej za pomocą matematyki, odpowiednio 

dobranych   eksperymentów,   abstrakcyjnego   rozumowania   i   innych   racjonalnych   procedur. 

Zagadką pozostaje, dlaczego dysponujemy takimi podwójnymi zdolnościami poznawania świata? 

Nie   ma   żadnych   przesłanek,   by   uznać   tę   drugą   metodę   za   udoskonalenie   pierwszej.   Są   to 

zupełnie od siebie niezależne drogi poznania rzeczywistości. Jednakże, podczas gdy pierwsza w 

widoczny sposób zaspokaja potrzeby biologiczne, druga z punktu widzenia biologii nie przynosi 

żadnego zauważalnego pożytku.

Zagadka  ta   staje  się  jeszcze  głębsza,  gdy weźmiemy  pod  uwagę   występowanie  ludzi 

genialnie   uzdolnionych   matematycznie   lub   muzycznie,   których   biegłość   w   tych   dziedzinach 

przewyższa  o całe rzędy wielkości poziom średni dla całej populacji. Zdumiewająca intuicja 

takich   matematyków   jak   Gauss   i   Riemann   uwidaczniała   się   nie   tylko   w   ich   niezwykłych 

dokonaniach w dziedzinie matematyki  (Gauss już w dzieciństwie uchodził za geniusza; miał 

także   fotograficzną   pamięć),   lecz   także   w   tym,   że   wiele   twierdzeń   zapisywali   bez   dowodu, 

pozostawiając   następnym   pokoleniom   trud   formalnego   wykazania   ich   prawdziwości.   W   jaki 

sposób   ci   matematycy   byli   w   stanie   otrzymać   od   razu   w   gotowej   postaci   wyniki,   których 

dowody, jak się później okazywało, wymagały przeprowadzenia długich i niezwykle złożonych 

rozumowań, naprawdę nie wiemy.

Prawdopodobnie najsłynniejszym przykładem jest tu przypadek hinduskiego matematyka 

S. Ramanujana. Ramanujan, urodzony pod koniec dziewiętnastego wieku w Indiach, pochodził z 

bardzo biednej rodziny i otrzymał zaledwie elementarne wykształcenie. Matematyki nauczył się 

praktycznie   samodzielnie,   przy   czym,   będąc   izolowanym   od   głównego   nurtu   życia 

akademickiego, podchodził do niej w sposób dość niekonwencjonalny. Ramanujan zapisał całą 

masę   twierdzeń   bez   dowodu,   niektóre   z   nich   o   bardzo   szczególnym   charakterze,   które   nie 

przyszłyby   do   głowy   bardziej   konwencjonalnie   nastawionemu   matematykowi.   W   końcu   o 

pracach Ramanujana dowiedział się Hardy i wprawiły go one w zdumienie. „Nigdy przedtem nie 

widziałem nic podobnego - twierdził. - Wystarczyło na nie raz popatrzeć, by być pewnym, że 

mogły   one   wyjść   spod   pióra   tylko   matematyka   najwyższej   klasy”.   Hardy'emu   udało   się 

background image

przeprowadzić dowód niektórych z twierdzeń Ramanujana, lecz jedynie z największą trudnością, 

stosując   pełny   zakres   swoich   własnych,   wcale   niemałych,   umiejętności   matematycznych. 

Udowodnienie pozostałych przerastało już jego możliwości, jednakże czuł, że muszą być one 

prawdziwe,   gdyż   „nikomu   nie   stałoby   wyobraźni,   by   je   wymyśleć”.   Hardy'emu   udało   się 

sprowadzić   Ramanujana   do   Cambridge   i   zamierzał   pracować   z   nim   wspólnie.   Niestety, 

Ramanujan, który nie mógł przystosować się do innego środowiska kulturowego i miał poważne 

problemy   ze   zdrowiem,   zmarł   przedwcześnie   w   wieku   zaledwie   trzydziestu   trzech   lat, 

pozostawiając olbrzymi zasób matematycznych hipotez dla potomności.

Do dziś dnia nie wiadomo, w jaki sposób mógł on osiągnąć tak niezwykłe wyniki. Jeden z 

matematyków wyraził się, że twierdzenia wprost „wypływały z jego głowy”, bez zauważalnego 

wysiłku. Byłaby to rzecz godna uwagi u każdego matematyka, lecz w przypadku człowieka, 

który   nie   studiował   matematyki   w   konwencjonalny   sposób,   była   doprawdy   czymś 

nadzwyczajnym.   Narzuca   się   przypuszczenie,   że   Ramanujan   obdarzony   był   szczególną 

zdolnością   bezpośredniego   oglądu   matematycznej   Krainy   Myśli,   skąd   mógł   czerpać   gotowe 

twierdzenia, jakie tylko chciał.

Równie tajemnicze są przedziwne przypadki tak zwanych błyskawicznych rachmistrzów - 

ludzi   potrafiących   wykonywać   prawie   natychmiastowo   niewiarygodnie   złożone   rachunki   w 

pamięci,   nie   mając   przy   tym   najmniejszego   pojęcia,   w   jaki   sposób   otrzymują   odpowiedź. 

Shakuntala   Devi,   mieszkająca   w   indyjskim   mieście   Bangalore,   objeżdża   świat   zadziwiając 

publiczność na pokazach swymi umiejętnościami rachunkowymi. Podczas jednego z pokazów w 

Teksasie   obliczyła   prawidłowo   w   pamięci   pierwiastek   dwudziestego   trzeciego   stopnia   z 

dwustucyfrowej liczby w ciągu zaledwie pięćdziesięciu sekund!

Jeszcze   bardziej   szczególne   są   być   może   przypadki   „autystycznych   mędrców”, 

upośledzonych   umysłowo   ludzi,   którzy   niejednokrotnie   nie   umieją   wykonać   najbardziej 

elementarnych   działań   arytmetycznych,   a   pomimo   to   wykazują   niesamowitą   umiejętność 

prawidłowego   rozwiązywania   zadań   matematycznych,   które   zwykłym   ludziom   wydają   się 

nieprawdopodobnie  trudne.  Na przykład  w Stanach  Zjednoczonych  żyje  dwóch  opóźnionych 

umysłowo braci, którzy szybciej niż komputer potrafią znajdować liczby pierwsze. W innym 

przypadku, w programie pokazywanym w angielskiej telewizji upośledzony mężczyzna prawie 

bez   namysłu   określał   właściwie   dzień   tygodnia,   gdy   podawano   mu   jakąś   datę,   nawet   spoza 

naszego stulecia.

background image

Jesteśmy   oczywiście   przyzwyczajeni   do   tego,   że   poszczególni   ludzie   są   bardzo 

zróżnicowani pod względem zdolności fizycznych i umysłowych. Jedni potrafią skoczyć wzwyż 

powyżej  dwóch metrów,  podczas  gdy innym  sprawia trudność przeskoczenie  jednego metra. 

Jednakże   wyobraźmy   sobie,   że   oto   ktoś   nagle   skacze   na   wysokość   dwudziestu   lub   dwustu 

metrów! A przecież skala wyczynów intelektualnych prezentowanych przez umysły uzdolnione 

matematycznie jest znacznie większa niż zróżnicowanie uzdolnień fizycznych.

Naukowcy   są   wciąż   dalecy   od   poznania,   w   jaki   sposób   zdolności   intelektualne   są 

determinowane genetycznie. Być może tylko bardzo rzadko pojawia się u ludzi zestaw genów 

powodujący nadzwyczajne zdolności matematyczne. A może nie zdarza się to tak rzadko, lecz 

geny te nie zawsze zostają uaktywnione. Niemniej jednak w obu przypadkach odpowiednie geny 

występują w puli genetycznej człowieka. Fakt, że genialni matematycy pojawiają się w każdym 

pokoleniu, świadczy o tym, iż rozkład tej cechy w puli genetycznej jest dość stabilny. Jeżeli 

cecha   ta   wykształciła   się   przypadkowo,   a   nie   pod   wpływem   czynników   otoczenia,   to   jest 

prawdziwie zadziwiającym zbiegiem okoliczności, że matematyka da się bezpośrednio stosować 

do świata fizycznego. Z drugiej strony, jeśli nawet zdolności matematyczne w jakiś, bliżej nie 

znany, sposób sprzyjają przetrwaniu i rozwinęły się w wyniku doboru naturalnego, nadal stoimy 

przed zagadką, dlaczego prawa przyrody mają charakter matematyczny. Przecież przetrwanie „w 

dżungli”   nie   wymaga   znajomości   praw   przyrody,   lecz   wyłącznie   ich   przejawów.   Jak   się 

przekonaliśmy, same prawa są zakodowane w przyrodzie i nie mają wcale prostego odniesienia 

do   rzeczywistych   zjawisk   fizycznych,   które   im   podlegają.   Dla   przetrwania   istotna   jest 

prawidłowa ocena, jaki świat jest, a nie znajomość jego ukrytego fundamentalnego porządku. A 

już na pewno nie jest ono uwarunkowane wiedzą o budowie jądra atomu, czarnych dziurach czy 

też cząstkach elementarnych, które na Ziemi powstają tylko w wielkich akceleratorach.

Można by sądzić, że gdy uchylamy się przed rzuconym kamieniem lub szacujemy, jak 

bardzo musimy się rozpędzić, by przeskoczyć strumień, czynimy użytek ze znajomości praw 

mechaniki,   ale   tak   nie   jest.   Korzystamy   wtedy   jedynie   z   doświadczenia   zdobytego   w 

analogicznych sytuacjach. Nasz mózg reaguje na takie wyzwania automatycznie, nie dokonując 

całkowania   newtonowskich   równań   ruchu,   jak   fizyk   analizujący   tę   samą   sytuagę   od   strony 

naukowej. Aby dokonywać oceny ruchu ciał w trójwymiarowej przestrzeni, nasz mózg musi się 

odznaczać pewnymi szczególnymi własnościami. Uprawianie matematyki (na przykład rachunku 

różniczkowego i całkowego, przydatnego przy naukowym opisie tego ruchu) również wymaga 

background image

posiadania przez mózg określonych własności. Nie widzę żadnych przesłanek, by zakładać, że te 

dwa w zasadzie odmienne zestawy własności miałyby sobie odpowiadać lub że jeden z nich 

miałby być (nawet czysto przypadkowym) wytworem drugiego.

W istocie, fakty przemawiają za tezą przeciwną. Zwierzęta, tak jak my, potrafią uchylać 

się przed rzuconym kamieniem i skutecznie przeskakiwać przez przeszkody, lecz nie przejawiają 

żadnych zdolności matematycznych. Ptaki, na przykład, w o wiele większym stopniu niż ludzie 

wykorzystują bezpośrednio prawa mechaniki i ich mózgi są odpowiednio do tego ewolucyjnie 

przystosowane. Jednakże, jak wykazały eksperymenty z jajami ptaków, nie potrafią one liczyć 

więcej niż do trzech. Znajomość pewnych regularności w przyrodzie, takich jakie występują w 

mechanice, jest dla przetrwania bardzo istotna, toteż została wbudowana w mózgi ludzi i zwierząt 

już na bardzo pierwotnym poziomie. W przeciwieństwie do tego, matematyka stanowi wyższą 

funkcję umysłu,  najwyraźniej  spotykaną  tylko  u człowieka  (przynajmniej, gdy bierzemy  pod 

uwagę tylko życie na Ziemi). Jest ona wytworem najbardziej złożonego ze znanych układów w 

przyrodzie, a jednak jej najbardziej spektakularne sukcesy dotyczą najbardziej elementarnych 

procesów przyrody:  oddziaływań cząstek w atomie. Jak to się dzieje, że najbardziej złożony 

układ połączony łączy się w ten sposób bezpośrednio z procesami najprostszymi?

Można by twierdzić, że skoro mózg jest wytworem procesów fizycznych,  nie ma nic 

dziwnego   w   tym,   że   odzwierciedla   istotę   tych   procesów,   w   tym   także   ich   matematyczność. 

Jednak w rzeczywistości nie zachodzi żaden bezpośredni związek pomiędzy prawami fizyki a 

budową mózgu. Tym, co odróżnia mózg od kilograma zwykłej materii, jest jego wewnętrzna 

złożoność,   w   szczególności   niezwykle   skomplikowany   system   połączeń   między   neuronami. 

Struktury tej nie da się uzasadnić wyłącznie w kategoriach praw fizyki. Zależy ona od szeregu 

innych   czynników,   w   tym   całego   mnóstwa   wydarzeń   przypadkowych,   jakie   towarzyszyły 

procesowi   ewolucyjnemu.   Prawa,   które   miały   decydujący   udział   w   kształtowaniu   struktury 

mózgu (takie jak prawa genetyki Mendla), nie mają bezpośredniego związku z prawami fizyki.

background image

Jak możemy wiedzieć cokolwiek, nie wiedząc wszystkiego?

Pytanie   to,   postawione   wiele   lat   temu   przez   matematyka   Hermanna   Bondiego,   jest 

obecnie jeszcze bardziej aktualne, wobec postępu, jaki dokonał się w teorii zjawisk kwantowych. 

Mówi się często, że świat jest jednością, że przyroda połączona jest wewnętrznie w jedną wielką 

całość. W pewnym sensie jest to prawda. Niemniej prawdą jest też, że jesteśmy w stanie zdobyć 

nawet bardzo szczegółową wiedzę o poszczególnych jej elementach, nie wiedząc wszystkiego. W 

istocie,   nauka   nie   byłaby   w   ogóle   możliwa,   gdybyśmy   nie   mogli   zdobywać   wiedzy   „po 

kawałku”.   Galileusz   odkrywając   prawo   spadku   swobodnego   ciał   nie   musiał   znać   rozkładu 

wszystkich mas we Wszechświecie; własności elektronów w atomie mogły być odkryte, zanim 

poznano   budowę   jądra,   i   tak   dalej.   Nietrudno   wyobrazić   sobie   świat,   w   którym   zjawiska 

związane  z jednym  miejscem,  bądź  też  jedną  skalą  rozmiarów  lub energii,  są na  tyle  ściśle 

związane   z   wszystkimi   innymi,   że   nie   można   ich   ująć   osobno   w   postać   prostych   praw. 

Odwołując   się   do   analogii   z   krzyżówką:   zamiast   krzyżującej   się   siatki   odzielnych   słów, 

mielibyśmy   do   odgadnięcia   jedno   niezwykle   skomplikowane   słowo.   Poznanie   Wszechświata 

odbywałoby się na zasadzie „wszystko-albo-nic”.

Całą zagadkę pogłębia fakt, że tak naprawdę owa rozdzielność przyrody ma charakter 

jedynie przybliżony. W rzeczywistości Wszechświat jest jedną całością. Pozycja Księżyca ma 

wpływ na spadające na Ziemi jabłko, i na odwrót. Na ruch elektronów w atomie wpływają także 

siły jądrowe. Jednakże w obydwu przypadkach efekty tych  oddziaływań  są na tyle  małe,  że 

praktycznie prawie zawsze możemy je zaniedbać. Niemniej nie dotyczy to wszystkich układów. 

Wspominałem   już   o   istnieniu   układów   chaotycznych,   które   są   niezmiernie   wrażliwe   na 

najdrobniejsze zewnętrzne zaburzenia. Sprawia to, że układy chaotyczne zachowują się w sposób 

nieprzewidywalny.   Jednakże,   pomimo   iż   żyjemy   w   świecie   pełnym   układów   chaotycznych, 

potrafimy   wydzielić   zeń   znaczną   liczbę   układów   fizycznych,   których   zachowanie   da   się 

przewidzieć i opisywać za pomocą matematyki.

Można to przypisać po części dwóm ciekawym własnościom, zwanym „liniowością” i 

„lokalnością”.   Układ   liniowy   spełnia   dość   szczególne   matematyczne   warunki   rozdzielności 

mnożenia względem dodawania, związane z wykresami w postaci linii prostych - stąd nazwa 

„liniowy”, których nie będę tu bliżej omawiał (przedstawiłem je bardziej szczegółowo w mojej 

książce The Matter Myth [Mit materii]). Na przykład prawa elektromagnetyzmu, opisujące pola 

background image

magnetyczne i elektryczne, są w bardzo dużym stopniu dokładności liniowe. Układy liniowe nie 

mają charakteru chaotycznego i nie są zbyt czułe na drobne zaburzenia zewnętrzne.

Żaden układ nie jest jednak dokładnie liniowy, zatem problem separowalności sprowadza 

się do kwestii, dlaczego efekty nieliniowe są na ogół w praktyce tak małe. Zazwyczaj bierze się 

to stąd, że wchodzące w grę odziaływania nieliniowe są same w sobie niezwykle słabe bądź mają 

bardzo krótki zasięg, albo i to, i to. Nie wiemy na razie, dlaczego siła i zasięg poszczególnych 

oddziaływań w przyrodzie są takie, jakie są: być  może  kiedyś  uda się je wyliczyć  z jakiejś 

ogólnej teorii. Inną możliwością jest, że są to „stałe przyrody”, których nie sposób wyprowadzić 

z samych praw. Istnieje jeszcze trzecia możliwość, że te „stałe” nie są wcale stałymi, których 

wartości są raz na zawsze ustalone, „dane od Boga”, lecz uwarunkowane są przez faktyczny stan 

Wszechświata; innymi słowy, wyznaczone są przez kosmiczne warunki początkowe.

Własność lokalności odnosi się do faktu, że, jak to ma miejsce w większości przypadków, 

zachowanie   się   układu   fizycznego   wyznaczone   jest   całkowicie   przez   siły   i   oddziaływania 

występujące w jego bezpośrednim otoczeniu. Tak więc przyśpieszenie spadającego swobodnie 

jabłka   w   danym   punkcie   przestrzeni   zależy   od   natężenia   pola   grawitacyjnego   tylko   w   tym 

punkcie. Ta sama reguła stosuje się do wielu innych oddziaływań i okoliczności. Istnieją wszakże 

sytuacje, w których mamy do czynienia ze zjawiskami nielokalnymi. Weźmy na przykład dwie 

cząstki elementarne, które oddziaływają ze sobą lokalnie, a następnie oddalają się od siebie. Z 

zasad   mechaniki   kwantowej   wynika,   że   nawet   gdy   cząstki   te   znajdą   się   na   przeciwległych 

krańcach Wszechświata, nadal muszą być  uważane za niepodzielną całość; to znaczy,  wynik 

pomiaru   przeprowadzonego   na   jednej   z   cząstek   będzie   częściowo   zależał   od   stanu   drugiej 

cząstki.   Einstein   określał   tę   nielokalność   jako   „widmowe   oddziaływanie   na   odległość”,   nie 

wierząc  zupełnie   w  jej  realny  charakter.  Tymczasem  przeprowadzone  ostatnio   eksperymenty 

potwierdziły   ponad   wszelką   wątpliwość,   że   takie   efekty   nielokalne   faktycznie   występują. 

Uogólniając, należy stwierdzić, że na poziomie subatomowym, opisywanym przez mechanikę 

kwantową,   zespół   wielu   cząstek   musi   być   traktowany   holistycznie,   gdyż   zachowanie   jednej 

cząstki jest nieodłącznie związane z zachowaniem pozostałych, niezależnie od tego, jak wielkie 

będą ich wzajemne odległości.

Fakt   ten   ma   istotne   znaczenie   dla   Wszechświata   jako   całości.   Gdybyśmy   chcieli 

arbitralnie   określić   stan   kwantowy   całego   kosmosu,   odpowiadałby   on   prawdopodobnie 

gigantycznemu zespołowi wzajemnie oddziałujących wszystkich cząstek we Wszechświecie. W 

background image

rozdziale 2 wspominałem o najnowszych ideach Hartle'a i Hawkinga dotyczących kwantowego 

opisu   Wszechświata   jako   całości,   czyli   kosmologii   kwantowej.   Jednym   z   wielkich   wyzwań 

stojących przed kosmologami kwantowymi jest wyjaśnienie, w jaki sposób świat, który znamy z 

naszego   doświadczenia,   wyłonił   się   z   mglistego   stanu   początkowego.   Przypomnijmy,   że 

mechanika kwantowa zawiera zasadę nieoznaczoności Heisenberga, która przewiduje rozmycie 

wartości wszystkich wielkości obserwowalnych w nieprzewidywalny sposób. Zgodnie z tym nie 

można przyjmować, że elektron wewnątrz atomu posiada w każdej chwili określoną pozycję w 

przestrzeni.   Nie   powinno   się   wręcz   wyobrażać   sobie,   że   krąży   on   wokół   jądra   atomu   po 

konkretnej orbicie, lecz że jest on w bliżej nie określony sposób rozmyty wokół jądra.

Chociaż   tak   to   wygląda   w   przypadku   elektronów   w   atomie,   dla   obiektów 

makroskopowych takiego rozmycia nie obserwujemy. Zatem planeta Mars ma w każdej chwili 

dokładną pozyq'ę w przestrzeni i porusza się po dobrze określonej orbicie wokół Słońca. Pomimo 

to Mars także podlega prawom mechaniki kwantowej. Można więc zapytać, jak to uczynił kiedyś 

Enrico Fermi, dlaczego Mars nie jest rozmyty wokół Słońca, tak jak elektron wokół jądra atomu. 

Innymi słowy, założywszy, że narodziny Wszechświata były procesem kwantowym, jak to się 

stało, że powstał świat zasadniczo niekwantowy? Początkowo, gdy rozmiary Wszechświata były 

jeszcze   bardzo   małe,   dominowała   w   nim   nieokreśloność   kwantowa,   lecz   obecnie   dla   ciał 

makroskopowych nie obserwujemy żadnych jej przejawów.

Większość naukowców czyni milczące założenie, że w przybliżeniu niekwantowy (czyli 

„klasyczny”, by użyć przyjmowanego określenia) świat jest koniecznym rezultatem Wielkiego 

Wybuchu, nawet zdominowanego początkowo przez efekty kwantowe. Niedawno jednak Hartle i 

Gell-Mann   zakwestionowali   ten   pogląd,   dowodząc,   że   istnienie   świata   w   przybliżeniu 

klasycznego,   w   którym   dobrze   określone   obiekty   materialne   znajdują   się   w   określonych 

miejscach przestrzeni i w którym obowiązuje dobrze określone pojęcie czasu, jest możliwe tylko 

dla pewnych szczególnych warunków początkowych. Z ich obliczeń wynika, że dla większości 

możliwych warunków początkowych taki klasyczny świat by nie powstał i podział świata na 

odrębne obiekty, zajmujące konkretne położenie w dobrze określonej czasoprzestrzeni, nie byłby 

możliwy.   Zasada   lokalności   nie   obowiązywałaby.   Wydaje   się   prawdopodobne,   że   w   takim 

rozmytym  świecie nie byłoby możliwe poznanie czegokolwiek bez poznania wszystkiego. W 

istocie Hartle i Gell-Mann twierdzą, że sama koncepcja praw fizyki klasycznej, takich jak prawa 

mechaniki  Newtona,  nie   może   być   uznana   za  fundamentalną  cechę  rzeczywistości,  lecz  jest 

background image

pozostałością   Wielkiego   Wybuchu   i   konsekwencją   szczególnego   kwantowego   stanu 

początkowego Wszechświata.

Jeżeli   jest   także   prawdą,   jak   wspominałem   powyżej,   że   siła   i   zasięg   oddziaływań   w 

przyrodzie również zależy od kwantowego stanu Wszechświata, to możemy dojść do istotnego 

wniosku. Zarówno liniowość, jak i lokalność większości układów fizycznych nie wynika wcale z 

jakichś   praw   fundamentalnych,   lecz   ze   szczególnego   stanu   kwantowego   u   początków 

Wszechświata.   Racjonalność   świata,   fakt,   że   możemy   poznawać   go   stopniowo,   odkrywając 

kolejne prawa, to znaczy, że nauka jest w ogóle możliwa, nie jest czymś koniecznym, absolutnie 

obowiązującym,   lecz   należy   ją   przypisać   szczególnym,   może   nawet   bardzo   szczególnym, 

kosmicznym warunkom początkowym. „Niepojęta skuteczność” matematyki w odniesieniu do 

świata   rzeczywistego   byłaby   zatem   skutkiem   „niepojęcie   skutecznych”   warunków 

początkowych.

background image

Rozdział siódmy

DLACZEGO NASZ ŚWIAT JEST WŁAŚNIE TAKI?

Einstein nadmienił kiedyś, iż najbardziej go ciekawi, czy Bóg stwarzając świat miał jakąś 

możliwość wyboru. Einstein nie był człowiekiem wierzącym w tradycyjnym  sensie, niemniej 

chętnie   posługiwał   się   pojęciem   Boga   jako   metaforą   przydatną   przy   wyrażaniu   najbardziej 

zasadniczych kwestii egzystencjalnych. To konkretne pytanie dręczyło całe pokolenia uczonych, 

filozofów i teologów. Czy świat z konieczności jest taki, jaki jest, czy też mógłby równie dobrze 

być  zupełnie inny?  a jeśli mógłby być  inny, w jaki sposób moglibyśmy uzasadnić, dlaczego 

jednak jest właśnie taki?

Podejmując kwestię, czy Bóg mógł stworzyć świat tak, jak chciał, Einstein nawiązywał 

do   idei   siedemnastowiecznego   filozofa   Benedykta   Spinozy.   Spinoza   był   panteistą   i   uważał 

obiekty świata fizycznego za atrybuty Boga, a nie rzeczy przez niego stworzone. Utożsamiając 

Boga   z   przyrodą,   Spinoza   odrzucał   chrześcijańską   koncepcję   transcendentnego   Boga,   który 

stworzył świat jako akt swej wolnej woli. Z drugiej strony, Spinoza nie był bynajmniej ateistą, 

był przekonany, że potrafi udowodnić na gruncie logiki, że Bóg musi istnieć. Ponieważ uznał 

tożsamość Boga ze światem fizycznym, oznaczało to, że potrafi udowodnić, iż nasz konkretny 

świat   również   istnieje   z   konieczności.   U   Spinozy   Bóg   nie   miał   żadnej   możliwości   wyboru: 

„Świat nie mógłby być  powołany do istnienia przez Boga w jakikolwiek inny sposób ani w 

jakiejkolwiek innej postaci niż ta, którą faktycznie otrzymał” - pisał on.

Ten   trend   myślowy   -   że   rzeczywistość   w   tej   postaci   jest   logicznie   konieczna   i   nie 

mogłaby być inna - jest obecnie dość powszechny wśród naukowców. Na ogół jednak wolą oni 

nie   wprowadzać   do   niej   Boga.   Gdyby   mieli   rację,   oznaczałoby   to,   że   świat   jest   układem 

zupełnym i zamkniętym pod względem poznawczym, w którym wszystko da się uzasadnić i nie 

ma miejsca na żadną tajemnicę, a także, iż w zasadzie nie potrzebujemy obserwować świata, aby 

poznać,   co   i   jak   w   obrębie   niego   istnieje,   ponieważ   wszystko,   co   istnieje,   jest   logicznie 

konieczne,   istotę   Wszechświata   można   zgłębić   mocą   samego   rozumu.   „Jestem   głęboko 

przekonany - pisał Einstein, do którego przemawiała ta idea - że czystą myślą możemy dosięgnąć 

rzeczywistości, tak jak marzyli o tym starożytni. (...) Za pomocą czystej matematyki jesteśmy w 

stanie   odkryć   koncepcje   oraz   spajające   je   w   jedną   całość   prawa,   które   stanowią   klucz   do 

background image

zrozumienia zjawisk przyrody”. Oczywiście, możemy nie okazać się wystarczająco inteligentni, 

aby   faktycznie   otrzymać   właściwe   koncepcje   i   prawa   wyłącznie   na   drodze   dedukcji 

matematycznej,   ale   nie   w   tym   rzecz.   Gdyby   taka   zamknięta   pod   względem   poznawczym 

struktura była w ogóle możliwa, zmieniłoby to zasadniczo nasze myślenie o Wszechświecie i 

miejscu, jakie w nim zajmujemy. Jednakże, czy te aspiracje do zupełnego i jednolitego systemu 

są w jakikolwiek sposób uzasadnione, czy też są jedynie próżną mrzonką?

background image

Poznawalność Wszechświata

U podłoża tych wszystkich pytań kryje się podstawowe założenie: że świat jest zarówno 

racjonalny, jak i poznawalny. Często wyraża się to w postaci tzw. „zasady racji dostatecznej”, 

stwierdzającej, że zawsze istnieje powód, dlaczego coś jest takie, jakie jest. Dlaczego niebo jest 

koloru niebieskiego? Dlaczego jabłka spadają z drzewa na ziemię? Dlaczego Układ Słoneczny 

liczy dziewięć planet? Nie zadowalamy się zwykle odpowiedzią: „Bo tak już jest”, wierząc, że 

zawsze  jest  jakaś  racja,  aby  coś   było   właśnie  takie.  Gdyby   istniały na  świecie  jakieś   fakty, 

których   z   założenia   nie   moglibyśmy   uzasadnić   (tak   zwane   luźne   fakty),   to   świat   zostałby 

pozbawiony racjonalności i jawiłby się nam jako absurdalny.

Większość ludzi akceptuje zasadę racji dostatecznej bez pytania. Cała nauka wręcz oparta 

jest na założeniu, że przyroda jest racjonalna. Zasada ta podzielana jest także przez większość 

teologów, gdyż wierzą oni, że Bóg także jest racjonalny. Czyż jednak możemy być absolutnie 

pewni, że zasady tej nie można kwestionować? Czy dysponujemy dostateczną racją, by wierzyć, 

że zasada racji dostatecznej jest bezwzględnie słuszna? Prawdą jest, że zasada ta zazwyczaj się 

potwierdza: jabłka spadają na ziemię pod wpływem siły ciążenia; niebo jest niebieskie, gdyż 

promienie świetlne o małej długości fali ulegają rozproszeniu na cząsteczkach powietrza, i tak 

dalej.   Ale   z   tego   nie   wynika,   że   sprawdzi   się   ona   zawsze.   Oczywiście,   gdyby   okazała   się 

fałszywa, to poszukiwanie ostatecznego uzasadnienia straciłoby wszelki sens. W każdym razie, 

niezależnie od tego, czy zasada racji dostatecznej jest prawdziwa czy też nie, warto przyjąć ją 

jako hipotezę roboczą, by przekonać się, gdzie nas ona doprowadzi.

Przystępując   do   rozważania   fundamentalnych   problemów   związanych   z   istnieniem 

świata, musimy rozróżnić dwie kategorie.

Do pierwszej należą fakty dotyczące świata fizycznego, takie jak liczba planet w Układzie 

Słonecznym.   W   samej   rzeczy   planet   jest   dziewięć,   lecz   nie   widać   żadnych   powodów,   by 

przypuszczać, że musi ich być dziewięć. Przeciwnie, możemy sobie bez trudu wyobrazić, że jest 

ich osiem albo dziesięć. Aby uzasadnić, dlaczego jest ich dziewięć, musielibyśmy rozpatrzeć, w 

jaki sposób Układ Słoneczny uformował się z obłoku gazowego, względną obfitość pierwiastków 

w   tym   obłoku,   i   tak   dalej.   Jako   że   uzasadnienie   własności   Układu   Słonecznego   wymaga 

odwołania się do czegoś poza nim, własności określane są mianem „przygodnych”. Coś jest 

przygodne,   jeżeli   mogłoby   być   inne,   i   uzasadnienie,   dlaczego   jest   właśnie   takie,   wymaga 

background image

odwołania się do czegoś zewnętrznego, czegoś poza tą rzeczą.

Druga kategoria obejmuje fakty, obiekty i zdarzenia, które nie są przygodne, określane 

mianem „koniecznych”. Coś jest konieczne, jeżeli jest, jakie jest, niezależnie od czegokolwiek 

innego. Rzecz konieczna zawiera w sobie rację swego istnienia i nie ulega nigdy zmianie, nawet 

gdyby zmieniło się wszystko poza nią.

Ciężko   jest   przekonać   się,   czy   w   przyrodzie   istnieje   cokolwiek   koniecznego. 

Niewątpliwie   wszystkie   ciała   fizyczne,   jakie   napotykamy   wokół   nas,   i   związane   z   nimi 

wydarzenia   zależą   w   jakiś   sposób   od   reszty   świata,   więc   muszą   być   uznane   za   przygodne. 

Ponadto, jeżeli coś jest w sposób konieczny tym, czym jest, to musi takie pozostać na zawsze; nie 

może ulec żadnej zmianie. Rzecz konieczna nie może zawierać żadnego odniesienia do czasu. 

Stan   świata   ustawicznie   się   zmienia   w   czasie,   a   zatem   wszystkie   ciała   fizyczne 

współuczestniczące w tych zmianach są przygodne.

Co z Wszechświatem jako całością, skoro definiując go odwołujemy się do czasu? Miałby 

on być  bytem  koniecznym?  Tak  uważał  Spinoza  i jego następcy.  Na pierwszy rzut oka  nie 

wydaje   się,   aby   mogli   oni   mieć   rację,   gdyż   z   łatwością   możemy   sobie   wyobrazić,   że 

Wszechświat jest inny. Oczywiście, możliwość wyobrażenia sobie czegokolwiek nie jest żadną 

gwarancją,   że   jest   to   możliwe,   a   nawet   że   jest   logicznie   dopuszczalne.   Niemniej   jestem 

przekonany,  że są dostateczne powody,  by przyjmować,  iż Wszechświat mógłby być  inny,  i 

krótko je tutaj omówię.

A  co  z  prawami  fizyki?   Czy  mają  one  charakter   konieczny,   czy  przygodny?   W tym 

przypadku sytuacja jest mniej jasna. Zazwyczaj prawa te uznawane są za pozaczasowe i wieczne, 

a więc można by argumentować, że są one konieczne. Z drugiej strony, doświadczenie pokazuje, 

iż   w   miarę   postępu   fizyki   prawa   niegdyś   uważane   za   niezależne   okazują   się   być   ze   sobą 

powiązane.   Dobrym   przykładem   może   tu   być   niedawne   odkrycie,   że   słabe   oddziaływania 

jądrowe   i   oddziaływania   elektromagnetyczne   stanowią   faktycznie   dwa   przejawy   jednego 

oddziaływania zwanego elektrosłabym i opisywane są tymi samymi równaniami. A zatem te dwa 

odziaływania z osobna okazują się być zależne od innych oddziaływań. Ale może jest tak, że 

istnieje   jednak   jakieś   superoddziaływanie,   czy   też   najwyższe   prawo   jednoczące   w   sobie 

wszystkie   oddziaływania,   które   jest   konieczne?   Wielu   fizyków   sądzi,   że   tak.   Niektórzy 

współcześni   naukowcy,   jak   na   przykład   chemik   z   Oxfordu   Peter   Atkins,   wskazują   na 

występujące   w   fizyce   teoretycznej   dążenie   do   znalezienia   jednego   najwyższego   prawa, 

background image

twierdząc,   że   dowodzi   to,   iż   świat   fizyczny   w   znanej   nam   postaci   nie   jest   przygodny,   lecz 

konieczny. Utrzymują oni, że nie ma potrzeby poszukiwania dalszych uzasadnień w metafizyce. 

Naukowcy   ci   sądzą,   że   nadejdzie   czas,   kiedy   wszystkie   prawa   fizyki   zostaną   ujęte   w   ramy 

jednolitej teorii, której matematyczna struktura będzie jedyną możliwą pod względem logicznym.

Są jednak i tacy, którzy zwracając uwagę na tę samą postępującą unifikację, wyciągają 

całkowicie odmienne wnioski. Przykładem może być tu papież Jan Paweł II, który pozostając 

pod głębokim wrażeniem spektakularnych sukcesów unifikacji różnych cząstek elementarnych i 

czterech fundamentalnych oddziaływań przyrody, uznał niedawno za stosowne zwrócić się do 

uczestników konferencji naukowej z komentarzem na temat szeroko pojmowanych konsekwencji 

tych odkryć:

Fizycy   zdobyli   szczegółową,   choć   niepełną   i   tymczasową,   wiedzę   o   cząstkach 

elementarnych  i o fundamentalnych  siłach, którymi  oddziaływają one ze sobą przy małych  i 

średnich   energiach.   Dysponują   oni   obecnie   dobrą   teorią   unifikacji   słabych   oddziaływań 

jądrowych   z   elektromagnetycznymi   oraz   mniej   pewnymi,   aczkolwiek   obiecującymi,   teoriami 

Wielkiej Unifikacji, które próbują uwzględnić również silne oddziaływania jądrowe. W dalszej 

perspektywie tego rozwoju pojawiają się już dość szczegółowe propozycje ostatniego stadium 

superunifikacji,   to   znaczy   unifikacji   wszystkich   czterech   oddziaływań   przyrody,   w   tym 

grawitacji. Czyż nie jest wart uwagi fakt, że w dziedzinie o tak daleko posuniętej specjalizacji, 

jak współczesna fizyka, występuje tak wyraźnie zaznaczona tendencja do jednoczenia?

Istotną cechą tego procesu jest sposób, w jaki ogarnia on stopniowo znane prawa fizyki. 

Każdy   krok   ukazuje   nowe   wzajemne   zależności   i   wewnętrzną   spójność   pomiędzy   prawami 

uważanymi   dotąd   za   całkowicie   niezależne.   Na   przykład,   sam   wymóg,   by   wszystkie   teorie 

zgodne były z mechaniką kwantową i teorią względności, nakłada silne ograniczenia na postać 

matematyczną występujących w nich praw. Rodzi to oczekiwanie, że pewnego dnia, może już 

niedługo, ten proces jednoczenia osiągnie swój cel: opis wszystkich praw przyrody w ramach 

jednej teorii. Jest to idea tak zwanej Teorii Wszystkiego, o której wspominałem już w rozdziale 

1.

background image

Jedyna Teoria Wszystkiego?

Czy   Teoria   Wszystkiego   jest   w   ogóle   możliwa?   Wielu   naukowców   sądzi,   że   tak. 

Niektórzy z nich uważają nawet, że już prawie dysponujemy taką teorią, podając modną obecnie 

teorię   superstrun   jako   poważną   próbę   ujęcia   wszystkich   znanych   w   fizyce   fundamentalnych 

oddziaływań i cząstek elementarnych, jak również struktury przestrzeni i czasu, w ramy jednej, 

uniwersalnej  struktury  matematycznej.   W  istocie,  pogląd   ten  nie  jest   niczym   nowym.   Próby 

znalezienia całkowicie jednolitego opisu świata mają już długą historię. W swej książce Theories 

of   Everything:   The   Quest   for   Ultimate   Explanation  [Teorie   Wszystkiego:   w   poszukiwaniu 

ostatecznego uzasadnienia] John Barrow przypisuje popularność poszukiwania teorii tego typu 

głęboko   zakorzenionemu   u   ludzi   przekonaniu   o   racjonalności   świata,   przekonaniu,   że   pod 

powłoką zjawisk kryją się jednolite zasady logiczne, które dają się ująć w zrozumiałej, zwięzłej 

formie.

Rodzi  się wtedy pytanie,  czy przy tym  dążeniu  do globalnej  unifikacji teoria  zostaje 

poddana   tak   ścisłym   wymogom   matematycznej   spójności,   że   staje   się   ona   jedyną   możliwą. 

Gdyby tak było, mielibyśmy w fizyce do czynienia tylko z jedną uniwersalną teorią, przy czym 

poszczególne jej prawa wyznaczone byłyby jednoznacznie jako logiczna konieczność. Powiada 

się, że świat byłby wtedy w pełni uzasadniony: prawa Newtona, równania Maxwella dla pola 

elektromagnetycznego,   i   wszystko   inne,   wynikałoby   nieuchronnie   z   wymogu   logicznej 

niesprzeczności   teorii,   podobnie   jak   twierdzenie   Pitagorasa   wynika   z   aksjomatów   geometrii 

euklidesowej. Posuwając się tą drogą rozumowania  do końca, naukowcy nie potrzebowaliby 

dłużej zaprzątać sobie głowy żadnymi obserwacjami ani eksperymentami. Nauki przyrodnicze 

utraciłyby charakter nauk empirycznych, stając się gałęzią logiki dedukcyjnej, przy czym prawa 

przyrody zyskałyby status twierdzeń matematycznych, a własności świata można by poznawać 

wyłącznie na drodze rozumowania dedukcyjnego.

Przekonanie,   że   naturę   rzeczy   istniejących   w   świecie   można   poznać   mocą   czystego 

rozumu,   poprzez   zastosowanie   wnioskowania   dedukcyjnego   wychodzącego   z   oczywistych 

przesłanek,   ma   długą   historię.   Jego   zaczątki   możemy   znaleźć   już   w   pismach   Platona   i 

Arystotelesa. Pojawiło się ono ponownie w siedemnastym wieku u filozofów racjonalistycznych, 

jak Kartezjusz, który skonstruował system fizyki, z założenia oparty na zastosowaniu samego 

rozumu,  a nie obserwacjach empirycznych.  O wiele później, w latach  trzydziestych  naszego 

background image

stulecia, fizyk E.A. Milne w podobny sposób próbował stworzyć dedukcyjny opis grawitacji i 

kosmologii. W ostanich latach idea, że całkowicie zunifikowana teoria fizyki mogłaby się okazać 

możliwa do wyprowadzenia w sposób dedukcyjny, znów zyskała na popularności, co skłoniło 

Stephena Hawkinga do nadania swemu wykładowi inauguracyjnemu przy obejmowaniu katedry 

fizyki w Cambridge prowokacyjnego tytułu „Czy zbliża się kres fizyki teoretycznej?”

Jednak jakie są podstawy, by przypuszczać, że może się tak zdarzyć? Nie wdając się w 

rozważania,   czy   teoria   superstrun   i   podobne   jej   koncepcje   rzeczywiście   stanowią   zalążek 

przyszłej unifikacji, jestem przekonany, że teza o jedyności teorii superunifikacji jest fałszywa i 

da się to wykazać. Do wniosku takiego doprowadziło mnie szereg przesłanek. Pierwszą z nich 

jest, że fizycy często rozważają niesprzeczne matematycznie „wszechświaty myślowe”, które bez 

wątpienia   są   różne   od   naszego   Wszechświata.   Powody   tego   wyjaśniałem   w   rozdziale   l. 

Poznaliśmy już jeden taki wszechświat myślowy - automat komórkowy, a istnieje jeszcze wiele 

innych. Wydaje mi się, że dla zapewnienia jedyności teorii musimy postawić jej wymóg nie tylko 

tego,   by   była   niesprzeczna   wewnętrznie,   lecz   także   aby   spełniała   szereg   innych   warunków 

różnego typu, takich jak zgodność z teorią względności, występowanie określonych symetrii, czy 

też istnienie trzech wymiarów przestrzennych i jednego czasowego.

Druga przesłanka dotyczy samego pojęcia jedyności w matematyce i logice. Matematyka 

opiera się na pewnym zbiorze aksjomatów. Wszystkie twierdzenia matematyki można wywieść 

dedukcyj-nie z tego zbioru aksjomatów, jednakże nie można wyprowadzić samych aksjomatów. 

Ich   uzasadnienie   wykracza   poza   ramy   matematyki.   Można   sobie   wyobrazić   wiele   różnych 

zestawów aksjomatów, prowadzących do różnych pod względem logicznym struktur. Poważne 

problemy   stwarza   także   twierdzenie   Godła.   Pamiętajmy,   że   zgodnie   z   tym   twierdzeniem   w 

ogólnym przypadku niemożliwe jest dla danego systemu aksjomatów nawet udowodnienie nie-

sprzeczności samych aksjomatów, a jeśli nawet uda się dowieść ich niesprzeczności, to i tak 

system aksjomatów będzie niezupełny w tym sensie, że będą istniały prawdziwe twierdzenia 

matematyczne, których prawdziwości nie da się udowodnić w ramach tego systemu. W jednym 

ze swych najnowszych artykułów Russell Stannard omawia, jakie to może mieć konsekwencje 

dla unifikacji fizyki:

Prawdziwa teoria wszystkiego musi uzasadnić nie tylko, jak powstał nasz Wszechświat, 

ale także, dlaczego jest to jedyny typ Wszechświata, jaki mógł zaistnieć - dlaczego mamy tylko 

jeden system praw fizyki.

background image

Cel ten uważam za iluzoryczny. (...) Ten wrodzony, nieunikniony brak zupełności musi 

się   odzwierciedlać   w   każdym   matematycznym   modelu   naszego   Wszechświata.   Jako   istoty 

stworzone, przynależące do świata fizycznego, musimy być również opisywani przez ten model. 

Wynika   stąd,   że   nigdy   nie   będziemy   w   stanie   uzasadnić   wyboru   przyjętych   w   tym   modelu 

aksjomatów, a w konsekwencji i praw fizyki, którym odpowiadają te aksjomaty. Nie będziemy 

też   mogli   uzasadnić   wszystkich   prawdziwych   zdań,   jakie   można   wypowiedzieć   o 

Wszechświecie.

John   Barrow   zajął   się   zbadaniem,   jakie   ograniczenia   na   Teorię   Wszystkiego   nakłada 

twierdzenie Godła, i dochodzi do wniosku, że taka teoria byłaby „dalece niewystarczająca, by 

rozwikłać   zawiłości   Wszechświata   takiego   jak   nasz.   (...)   Nie   istnieje   pojedyncza   formuła 

ujmująca cały Wszechświat, jego prawdę, harmonię i prostotę. Nie istnieje Teoria Wszystkiego 

pozwalająca wniknąć w całość istnienia,  albowiem wniknąć we wszystko  znaczy nie poznać 

konkretnie niczego”.

Zatem  poszukiwania  Teorii  Wszystkiego,  pozwalającej  wyrugować  ze świata  wszelką 

przygodność i wykazać, że świat fizyczny w sposób konieczny jest tym, czym jest, wydają się 

skazane na niepowodzenie z racji czysto logicznych. Dla żadnego systemu racjonalnej wiedzy nie 

można   dowieść,   że   jest   on   zarazem   spójny   i   zupełny.   Zawsze   pozostanie   pewna   otwartość, 

pewien   element   tajemnicy,   coś   niewyjaśnionego.   Filozof     Thomas   Torrance   przygania   tym, 

którzy   ulegli   pokusie   uwierzenia,   że   Wszechświat   jest   „swego   rodzaju   perpetuum   mobile, 

samoistnym,   samowystarczalnym,   samouzasadniającym   się   tworem,   całkowicie   spójnym   i 

zupełnym, a tym samym uwięzionym w zaklętym kręgu nieuniknionych konieczności”. Ostrzega, 

że „Wszechświat nie zawiera w sobie racji, dlaczego w ogóle istnieje, ani dlaczego jest taki, jaki 

jest; dlatego oszukujemy samych siebie, jeżeli sądzimy, że potrafimy dowieść, iż poprzez naukę 

uda nam się dowieść, że Wszechświat nie mógłby być inny”.

Może być jednak tak, że prawa Wszechświata, choć nie są jedynymi  możliwymi  pod 

względem logicznym, są jedynymi dopuszczającymi powstanie struktur złożonych. A może nasz 

Wszechświat jest jedynym,  w którym  możliwa jest biologia, a zatem powstanie organizmów 

obdarzonych świadomością. Byłby to więc jedyny Wszechświat będący przedmiotem poznania. 

Wracając do postawionego przez Einsteina pytania, czy Bóg stwarzając Wszechświat miał jakąś 

swobodę wyboru,  musimy  na nie  odpowiedzieć  negatywnie,  chyba  że sam Bóg tak urządził 

świat, abyśmy o tym nie wiedzieli. Wspomina o tym Stephen Hawking w książce Krótka historia 

background image

czasu:  „Być może jest tylko jedna, lub co najwyżej kilka, teorii wielkiej unifikacji, takich jak 

teoria strun heterotycznych, które są spójne wewnętrznie i dopuszczają powstanie struktur tak 

skomplikowanych jak człowiek, będący w stanie zgłębiać prawa przyrody i stawiać pytania o 

naturę Boga”.

Może nawet nie ma żadnych logicznych przeszkód, by uznać tak postawioną tezę; tego 

nie wiem. Wiem jednak, że nie ma absolutnie niczego, co by za nią przemawiało. Można by 

jeszcze   próbować   argumentacji,   że   żyjemy   w   najprostszym   z   możliwych   poznawalnych 

wszechświatów to znaczy, prawa fizyki są najprostszym logicznie spójnym zbiorem praw, który 

dopuszcza powstanie struktur samoreprodukujących się. Nie wydaje się jednak, aby nawet w tak 

bardzo osłabionej wersji dało się tego dowieść. Jak przekonaliśmy się w rozdziale 4, istnieją 

światy kreowane przez automaty komórkowe, w których możliwa jest samoreprodukcja struktur, 

przy czym reguły definiujące te światy są tak proste, że trudno wręcz sobie wyobrazić, aby prawa 

fizyki w ostatecznej teorii unifikacji mogły być prostsze.

Zajmijmy   się   teraz   poważniejszym   problemem   dotyczącym   tezy   o   jedyności 

Wszechświata, którego się na ogół nie zauważa. Nawet gdyby okazało się, że prawa fizyki mogą 

być  tylko jedne, nie wynika z tego wcale, że wyznaczają one tylko jeden Wszechświat. Jak 

podawałem   w   rozdziale   2,   prawa   fizyki   muszą   być   rozpatrywane   wspólnie   z   kosmicznymi 

warunkami   początkowymi.   Jeden   z   możliwych   układów   warunków   początkowych 

zaproponowany   został   przez   Hartle'a   i   Hawkinga;   omówimy   je   pod   koniec   tego   rozdziału. 

Jakkolwiek   może   się   on   wydawać   naturalny,   jest   to   tylko   jedna   z   nieskończenie   wielu 

możliwości. W obecnej koncepcji „prawa warunków początkowych” nie ma nic, co mogłoby w 

najmniejszym stopniu sugerować, że tylko jakieś jedne konkretne warunki początkowe miałyby 

być   spójne   z   prawami   fizyki.   Wręcz   przeciwnie.   Sam   Hartle   dowodzi,   że   istnieją   głębokie 

zasadnicze powody, dlaczego prawa te nie mogą być wyznaczone jednoznacznie: „Konstruujemy 

nasze teorie w ramach Wszechświata, a nie poza nim, i wprowadza to w nieunikniony sposób 

pewne ograniczenia. Na przykład, warunki początkowe muszą być na tyle proste, aby dały się 

one wyrazić w ramach samego Wszechświata”. Uprawiając naukę, wprawiamy materię w ruch. 

Nawet samo myślenie wiąże się ze zmianami ruchu elektronów w naszym mózgu. Zmiany te, 

choć bardzo niewielkie, mają wpływ na stan innych elektronów i atomów we Wszechświecie. 

Hartle wyciąga stąd wniosek: „Wobec tego musi istnieć wiele układów warunków początkowych 

niemożliwych do odróżnienia poprzez sam fakt, że o nich myślimy”.

background image

Inna łyżka dziegciu związana jest z tym, że świat na poziomie fundamentalnym ma naturę 

kwantową, wraz z nieodłącznym jej indetenninizmem. Każda teoria pretendująca do miana Teorii 

Wszystkiego musi to uwzględniać, co oznacza, że teoria taka mogłaby wyznaczać jednoznacznie 

co najwyżej  świat najbardziej prawdopodobny,  od którego świat rzeczywisty różniłby się na 

poziomie   elementarnym   na   niezliczoną   liczbę   niemożliwych   do   przewidzenia   sposobów. 

Mogłoby się to także uwidaczniać w skali makroskopowej; na przykład pojedyncze zderzenie 

cząstek   może   doprowadzić   do   powstania   nowej   mutacji   jakiegoś   gatunku,   zmieniając   bieg 

ewolucji.

background image

Ład przygodny

Wydaje się zatem, że Wszechświat nie musi być taki, jaki jest: mógłby być inny. W 

ostatecznym   rachunku   to   właśnie   założenie,   że   Wszechświat   jest   zarówno   przygodny,   jak   i 

poznawalny,   jest   motywacją   dla   badań   empirycznych,   bowiem   gdyby   nie   był   przygodny, 

bylibyśmy   w   stanie   poznać   go   wyłącznie   na   drodze   logicznej   dedukcji;   a   gdyby   nie   był 

poznawalny,   nauka   w   ogóle   nie   byłaby   możliwa.   „To   właśnie   połączenie   przygodności   i 

poznawalności   -   pisze   filozof   Ian   Barbour   -   motywuje   nas   do   poszukiwania   nowych, 

nieoczekiwanych form racjonalnego porządku”. Barbour wskazuje, że przygodność świata ma 

poczwórny   aspekt.   Po   pierwsze,   same   prawa   fizyki,   jak   wszystko   na   to   wskazuje,   nie   są 

konieczne. Po drugie, kosmologiczne warunki początkowe mogły być inne. Po trzecie, jak wiemy 

z   mechaniki   kwantowej,   „Pan   Bóg   gra   w   kości”   -   to   znaczy,   zjawiska   na   poziomie 

fundamenalnym przyrody mają charakter statystyczny. I w końcu mamy fakt, że Wszechświat 

rzeczywiście istnieje. Ostatecznie, niezależnie od tego, jak znakomite teorie byśmy tworzyli, nie 

jest wcale powiedziane, że świat odpowiadający tym teoriom musi istnieć. Stephen Hawking 

zwraca szczególną uwagę właśnie na ten aspekt: „Czemu Wszechświat zadaje sobie w ogóle trud 

istnienia? - pyta. - Co wypełnia równania życiem, powołując do istnienia Wszechświat, który 

opisują?”.

Moim   zdaniem   jest   jeszcze   piąty  typ   przygodności,   z   którym   mamy   do   czynienia   w 

prawach   „wyższego   poziomu”,   odnoszących   się   do   własności   samoorganizacji   układów 

złożonych. Co rozumiem pod pojęciem takich praw, omówiłem wyczerpująco w książce  The 

Cosmic Blueprint,  więc ograniczę  się tu do kilku przykładów.  Wspominałem  już o prawach 

genetyki  Mendla, które, jakkolwiek w pełni  zgodne z prawami  fizyki,  nie mogą  być  jednak 

wyprowadzone   wyłącznie   na   ich   podstawie.   Podobnie   różnego   typu   prawa   i   regularności, 

występujące w układach chaotycznych lub układach samoorganizujących się, uwarunkowane są 

nie tylko prawami fizyki, ale i konkretnym charakterem danego układu. W wielu przypadkach 

efektywne   zachowanie   się   układu   zależy   od   przypadkowych   fluktuacji   na   poziomie 

mikroskopowym, a zatem praktycznie musimy taki układ uznać za indeterministyczny. A zatem 

te prawa i regularności wyższego poziomu zawierają istotne elementy przygodności niezależnie 

od praw fizyki.

Najbardziej tajemniczą stroną przygodności jest nie tyle to, że świat mógłby być inny, niż 

background image

jest, lecz to, iż panuje w nim przygodny ład. Najsilniej uwidacznia się w dziedzinie biologii, 

gdzie konkretne formy organizmów żywych są bez wątpienia przygodne (łatwo mogłyby być 

inne), a jednak w biosferze mamy do czynienia z wyraźnym, wszechobecnym ładem. Gdyby 

elementy świata były bezładne, nieuporządkowane w żaden szczególny sposób, ich konkretny 

układ   i   tak   byłby   zagadkowy.   Jednakże   fakt,   że   przygodne   przymioty   świata   układają   się 

jednocześnie w pewne uporządkowane struktury, z pewnością kryje w sobie głęboki sens.

Kolejna niezwykle istotna cecha uporządkowanej przygodności świata związana jest z 

istotą tego porządku, który konstytuuje  racjonalną jedność kosmosu. Ponadto ten całościowy 

porządek   jest  dla  nas  poznawalny.  Czyni  to  całą   zagadkę  o  wiele,  wiele   głębszą.  Niemniej, 

niezależnie od tego, co się za tym kryje, na tych własnościach świata opiera się cała nauka. „To 

połączenie przygodności, racjonalności, wolności i stabilności Wszechświata - pisze Torrance - 

sprawia, że jest on tak niezwykły, i nie tylko umożliwia badanie go w sposób naukowy, ale czyni 

to   wręcz   naszym   obowiązkiem.   (...)   Właśnie   w   oparciu   o   nierozerwalną   więź   pomiędzy 

przygodnością   a   porządkiem   w   świecie,   w   naukach   przyrodniczych   mogło   rozwinąć   się   to 

charakterystyczne zespolenie teorii i empirii, które doprowadziło do największych postępów w 

zdobywaniu przez nas wiedzy o otaczającym nas świecie”.

Zatem   moim   wnioskiem   jest,   że   faktyczny   kształt   świata   nie   jest   w   żadnym   stopniu 

wymuszony;  mógłby  on  równie  dobrze  być  inny.  W  ten  sposób  ponownie  stanęliśmy  przed 

problemem, dlaczego jest on taki, jaki jest. Czym można by uzasadnić jego istnienie i niezwykłą 

postać?

Najpierw postaram się wykazać niesłuszność dość trywialnego uzasadnienia, jakie bywa 

niekiedy   proponowane.   Jest   to   pogląd,   że   każdy   element   Wszechświata   da   się  uzasadnić   za 

pomocą   czegoś   innego,   a   to   z   kolei   z   pomocą   czegoś   jeszcze   innego,   i   tak   dalej   w 

nieskończoność. Jak nadmieniłem w rozdziale 2, takim nieskończonym łańcuchem rozumowania 

posługiwali się niektórzy zwolennicy teorii stanu stacjonarnego w oparciu o to, że w teorii tej 

Wszechświat nie miał początku w czasie. Jednakże nie da się przyjąć nieskończonego łańcucha, 

w którym każde ogniwo jest uzasadnieniem poprzedniego ogniwa, za rzeczywiste uzasadnienie 

czegokolwiek, gdyż nadal pozostanie zagadką, dlaczego istnieje właśnie dane ogniwo, czy też 

dlaczego   istnieje   w   ogóle   taki   łańcuch.   Leibniz   przedstawił   to   dobitnie,   zachęcając   do 

wyobrażenia  sobie  nieskończonego ciągu książek,  z których  każda  kolejna kopiowana jest z 

poprzedniej. Powiedzenie, że uzasadniliśmy w ten sposób pochodzenie ich treści, jest absurdalne. 

background image

Nadal mamy pełne prawo zapytać, kto jest autorem.

Wydaje mi się, że jeżeli ktoś uparcie trzyma się zasady racji dostatecznej i żąda, aby świat 

miał racjonalne uzasadnienie, to nie ma innej możliwości, jak poszukiwać tego uzasadnienia 

gdzieś poza nim w sferze metafizyki, ponieważ, jak widzieliśmy, przygodny świat fizyczny nie 

może   uzasadnić   sam   siebie.   Jakiego   typu   metafizyczna   siła   sprawcza   byłaby   zdolna   do 

stworzenia Wszechświata? Ważne jest, aby wystrzegać się naiwnego wyobrażania sobie Stwórcy 

tworzącego w jakiejś chwili świat swą nadprzyrodzoną mocą, niczym magik wyciągający królika 

z cylindra. Jak już wyczerpująco wyjaśniałem, stworzenie świata nie może polegać na samym 

spowodowaniu   Wielkiego   Wybuchu.   Potrzebne   jest   bardziej   wyrafinowane,   bezczasowe 

rozumienie stworzenia, które, by użyć  sformułowania Hawkinga, wypełnia równania życiem, 

przemieniając   to,   co   tylko   możliwe,   w   coś,   co   istnieje   naprawdę,   stworzenie   w   sensie 

kształtowania praw fizyki, które między innymi wyznaczają ewolucję czasoprzestrzeni.

Naturalnie teologowie twierdzą, że mocą sprawczą odpowiedzialną za istnienie świata jest 

Bóg. Ale w jaki sposób miałoby to nastąpić? Jeśli wyobrażać sobie Boga jako nadprzyrodzony 

umysł   (czy   też   Myśl),   zasadne   jest   określanie   go   jako   osoby.   Wszakże   nie   wszyscy   teiści 

podzielają tę ideę. Niektórzy wolą myśleć  o Bogu jako o Bycie-w-sobie, bądź jako o Mocy 

Stwórczej, aniżeli Myśli.

W   istocie   można   jednak   przyjmować,   że   czynnik   stwórczy   może   mieć   jeszcze   inną 

postać. Filozof John Leslie utrzymuje, że mogłaby tu wchodzić w grę „powinność etyczna”, idea, 

która   sięga   swymi   korzeniami   jeszcze   myśli   Platona.   Innymi   słowy,   Wszechświat   istnieje, 

ponieważ jest to dobre. „Wiara w Boga - pisze Leslie - przeradza się w wiarę, iż świat istnieje, 

gdyż   powinien   istnieć”.   Koncepcja   ta   wydaje   się   nieco   dziwna.   W   jaki   sposób   „powinność 

etyczna”  miałaby stworzyć  świat?  Pamiętajmy jednak, że  nie mówimy  tutaj  o stwarzaniu  w 

kauzalno-mechanicznym   sensie,   jak   w   przypadku   budowniczego   domu,   lecz   o   „napełnianiu 

życiem   równań”   wyrażających   prawa   fizyki,   przekształcaniu   tego,   co   tylko   możliwe,   w 

rzeczywistość. Co mogłoby „napełniać życiem”  w tym sensie? Z oczywistych  względów nie 

może to być żaden ze znanych obiektów materialnych. Jeśli w ogóle istnieje odpowiedź na to 

pytanie, musiałoby to być coś bardzo abstrakcyjnego i niecodziennego. Nie ma żadnej logicznej 

sprzeczności w przypisywaniu zdolności stwórczych wartościom etycznym lub estetycznym, lecz 

nie ma też żadnej logicznej konieczności, aby to czynić. Leslie proponuje jednakowoż, iż może tu 

chodzić o słabszy, pozalogiczny, sens konieczności: że „dobro” może jakoś zmuszone stworzyć 

background image

świat, ponieważ jest to dobre.

Jeżeli ktoś nie zamierza porzucić idei, że świat nie może istnieć bez uzasadnienia, i jeżeli 

dla wygody określimy to uzasadnienie mianem Boga (niezależnie od tego, czy mamy na myśli 

osobę,   moc   stwórczą,   powinność   etyczną,   czy   też   jakąś   inną   nie   wymienioną   dotąd   jej 

koncepcję), to pierwszym pytaniem, na jakie winien odpowiedzieć, jest: w jakim sensie można 

powiedzieć, że Bóg ukstałtował prawa fizyki (i inne przygodne elementy świata)? Albowiem, by 

określenie to mogło cokolwiek w ogóle znaczyć, Bóg musiał wybrać nasz świat spośród innych 

możliwości. Musiał tu być jakiś element wolnej decyzji, odrzucenia innych możliwych światów. 

Więc jaki to miałby być Bóg? Z założenia byłby On racjonalny. Nie miałoby sensu mówienie o 

irracjonalnym Bogu; równie dobrze możemy przyjmować, że irracjonalny jest sam Wszechświat. 

Powinien On być także wszechmocny. Gdyby Bóg nie był wszechmocny, to Jego moc musiałaby 

być czymś ograniczona. Ale co mogłoby ograniczać moc Boga? Chcielibyśmy z kolei wiedzieć, 

skąd wzięły się te ograniczenia i co określiło ich konkretną postać, mianowicie, co Bóg może i 

czego   nie   może.   (Zauważmy,   że   nawet   wszechmocny   Bóg   podlegałby   ograniczeniom 

wynikającym z logiki; nie byłby w stanie stworzyć na przykład kwadratowego koła). Na mocy 

analogicznego rozumowania, Bóg musiałby być doskonały, bo cóż mogłoby spowodować w Nim 

jakieś   niedoskonałości?   Musiałby   być   również   wszechwiedzący,   to   znaczy   musiałby   znać 

wszystkie   dopuszczalne   logicznie   alternatywne   możliwości,   aby   był   w   stanie   dokonać 

racjonalnego wyboru.

background image

Najlepszy ze światów?

Leibniz przeprowadził powyższe rozumowanie szczegółowo, starając się udowodnić na 

podstawie przesłanki o racjonalności kosmosu, że taki Bóg istnieje. Konkluzją jego rozumowania 

było,   że   byt   racjonalny,   wszechmocny,   doskonały   i   wszechwiedzący   musiał   nieodwołalnie 

wybrać najlepszy z możliwych światów. Powód? Gdyby doskonały Bóg świadomie wybrał świat 

mniej   doskonały,   to   postąpiłby   irracjonalnie.   Żądalibyśmy   uzasadnienia   tego   szczególnego 

wyboru. Ależ jakież można by tu podać uzasadnienie?

Koncepcja, że nasz świat jest najlepszy z możliwych, do wielu ludzi nie przemawiała. 

Leibniz (pod postacią doktora Panglossa) został okrutnie wykpiony w tej kwestii przez Woltera: 

„O, doktorze Pangloss! Jeżeli to ma być najlepszy ze wszystkich możliwych światów, to jakżeż 

muszą wyglądać te pozostałe?” Zarzuty pod jej adresem koncentrują się zazwyczaj na problemie 

zła. Możemy sobie przecież wyobrazić świat, w którym, na przykład, nie ma zła ani cierpienia. 

Czyż ów świat nie byłby lepszy?

Pomijając rozważania etyczne, może być także pewien sens fizyczny,  w którym  nasz 

świat jest najlepszy z możliwych. Każdego uderza ogromne bogactwo i złożoność fizycznego 

świata.  Niekiedy  może   się  wydawać,  że  przyroda  wprost „wyszła  z  siebie”,   aby wytworzyć 

nietrywialny, wyrafinowany Wszechświat. Freeman Dyson próbował uchwycić tę właściwość w 

podanej przez siebie zasadzie maksymalnej komplikacji: prawa przyrody i warunki początkowe 

są   takie,   że   dają   w   wyniku   Wszechświat   możliwie   najbardziej   zróżnicowany.   „Najlepszy” 

rozumiane   jest   w   tym   przypadku   jako   „najbogatszy”   w   sensie   największej   różnorodności   i 

złożoności   układów   fizycznych.   Cała   sztuka   polega   na   tym,   aby   ująć   to   jakoś   w   ścisły, 

matematyczny sposób.

Ostatnio fizycy teoretyczni Lee Smolin i Julian Barbour podali wyimaginowany przykład, 

jak to można by osiągnąć. Założyli oni,że istnieje jakieś fundamentalne prawo przyrody, które 

powoduje,   iż   Wszechświat   dąży   do   stanu   maksymalnej   różnorodności.   Oznacza   to,   że   jego 

elementy układają się tak, aby doprowadzić do możliwie  największego zróżnicowania,  które 

należałoby ściśle zdefiniować. Leibniz twierdził, że świat wykazuje największą różnorodność, 

gdy podlega największemu uporządkowaniu. Brzmi to ładnie, jednak znaczy niewiele, dopóki nie 

zdefiniuje się tego jasno w sposób matematyczny. Smolin i Barbour podejmują się to uczynić, 

aczkolwiek   w   skromnej   skali,   definiując   „różnorodność”   dla   najprostszego   z   możliwych   do 

background image

pomyślenia systemów: układu kropek połączonych ze sobą liniami, przypominającego schemat 

połączeń  lotniczych  na  mapie.   Matematycy   nazywają  to  „grafem”.  Kropki  i linie  nie  muszą 

odpowiadać żadnym rzeczywistym obiektom w rzeczywistej przestrzeni, po prostu reprezentują 

pewne abstrakcyjne związki, które mogą być rozpatrywane same w sobie. Jasne jest, że mogą być 

grafy proste i grafy skomplikowane, w zależności od tego, jak poprowadzimy linie wewnątrz 

nich.   Możliwe   jest   znalezienie   grafu,   którego   układ,   widziany   z   wszystkich   jego   punktów 

(kropek), będzie, w dobrze określonym sensie, najbardziej skomplikowany. Cały chwyt polega na 

odniesieniu tego do rzeczywistego  świata. Co miałoby odpowiadać kropkom i liniom grafu? 

Smolin   i   Barbour   sugerują,   by   były   one   abstrakcyjnymi   odpowiednikami   cząstek   w 

trójwymiarowej   przestrzeni,   a   pojęcia   takie,   jak   odległości   wzajemne   między   cząstkami, 

wynikałyby w naturalny sposób ze stosunków wewnątrz grafu. Na tym etapie idea ta wydaje się 

dość mało konkretna, niemniej pokazuje to, jakimi drogami podążają teoretycy, aby poszerzyć 

swoje horyzonty przy zgłębianiu istoty praw fizyki.

Można też sobie wyobrazić odmienne formy optymalnego wyboru, inne sposoby, na jakie 

nasz   świat   mógłby   być   najlepszy   z   możliwych.   Wspominałem   już,   że   prawa   fizyki   można 

potraktować jako kosmiczny kod, zaszyfrowany „komunikat” ukryty pod powierzchnią danych 

obserwacyjnych. John Barrow snuł przypuszczenia, że konkretne prawa obowiązujące w naszym 

Wszechświecie   mogą   odpowiadać   kodowaniu   optymalnemu   pod   jakimś   względem.   Znaczna 

część tego, co naukowcom wiadomo w zakresie kodowania i przesyłania informacji, wywodzi się 

z pionierskich prac Claude'a Shannona prowadzonych podczas drugiej wojny światowej, którego 

książka o teorii informacji stała się pozycją klasyczną. Jednym z problemów, jakimi zajmował się 

Shannon, był wpływ szumów w kanale przesyłowym na przesyłany komunikat. Wszyscy wiemy, 

w jakim stopniu zakłócenia na linii telefonicznej mogą utrudnić prowadzenie rozmowy: ogólnie 

mówiąc,   szumy   powodują   stratę   informacji.   Niemniej   można   obejść   ten   problem   poprzez 

zakodowanie   komunikatu   z   odpowiednią   redundancją.   Na   tej   zasadzie   działają   niektóre   z 

nowoczesnych systemów telekomunikacyjnych. Barrow rozciąga tę ideę na prawa przyrody. W 

końcu, nauka jest swoistym dialogiem z przyrodą. Przeprowadzając eksperymenty, w pewnym 

sensie zadajemy przyrodzie pytania. Co więcej, w odpowiedzi nie otrzymujemy informacji w 

czystej   postaci;   zawiera   ona   przeróżne   „szumy”,   zwane   błędami   eksperymentalnymi,   które 

powodowane są przez wiele czynników. Ale, jak podkreślałem, przyroda nie przekazuje nam 

informacji otwartym  tekstem, lecz w postaci kodu. Teza Barrowa zasadza się w tym,  że ten 

background image

„kosmiczny kod” ma być  może taką strukturę, by umożliwiać optymalny  przekaz informacji 

zgodnie   z   teorią   Shannona:   „Aby   zrealizować   tę   obietnicę   dowolnie   wysokiej   wierności 

przekazywania   sygnałów,   informacja  musi   zostać   zakodowana  w   szczególny  sposób.  (...)  W 

przedziwny metaforyczny  sposób Przyroda  wydaje  się być  »zaszyfrowana«  w  takiej  właśnie 

optymalnej postaci”. Mogłoby to wyjaśniać, dlaczego udaje nam się złamać ten kod przyrody i 

odkryć jej ogólne prawa.

Optymalnością innego typu, odnoszącą się do matematycznej postaci praw przyrody, jest 

ich często wymieniana prostota. Einstein podsumował to pisząc: „Dotychczasowe doświadczenia 

uzasadniają   naszą   wiarę,   że   przyroda   realizuje   najprostsze   z   możliwych   do   pomyślenia   idei 

matematycznych”.   Z   pewnością   jest   to   intrygujące.   „Zagadkę   stanowi  już  samo   to,   iż   świat 

można   opisać   za   pomocą   matematyki   -   pisze   Barrow   -   ale   to,   że   jest   to   w   miarę   prosta 

matematyka, którą jesteśmy w stanie opanować w ciągu zaledwie kilku lat wytężonych studiów, 

jest   doprawdy   tajemnicą   wewnątrz   tej   zagadki”.   Czyżbyśmy   więc   naprawdę   żyli   w   świecie 

najlepszym z możliwych w tym sensie, iż da się najprościej opisać matematycznie? Wcześniej w 

tym rozdziale podawałem powody, dlaczego sądzę, że nie. A może w najprostszym możliwym 

świecie, który dopuszcza istnienie złożonych układów biologicznych? I w tym przypadku, jak 

wyjaśniałem,   odpowiedź,   moim   zdaniem,   jest   negatywna,   jakkolwiek   jest   to   przynajmniej 

hipoteza podatna na badanie w sposób naukowy. Możemy wypisać równania fizyki,a następnie 

pomajstrować   trochę   przy  nich,   by  się  przekonać,   jaki   to   da   efekt.   W   ten   sposób   teoretycy 

konstruują sztuczne modelowe światy, by sprawdzić matematycznie, czy możliwe byłoby w nich 

życie. Badaniom nad tym zagadnieniem poświęcono wiele wysiłku. Większość badaczy dochodzi 

do wniosku, że istnienie układów złożonych, zwłaszcza układów biologicznych, jest w znacznym 

stopniu zależne od kształtu praw fizyki i w niektórych przypadkach nawet ich minimalne zmiany 

są w stanie zniweczyć  szansę powstania  życia,  przynajmniej  w znanej  nam postaci. Nosi to 

nazwę Zasady Antropicznej, ponieważ wiąże nasze istnienie jako obserwatorów Wszechświata z 

jego prawami i warunkami początkowymi. Powrócę do tego zagadnienia w rozdziale 8.

Oczywiście, żądanie, aby prawa dopuszczały powstanie świadomych form życia, jest w 

każdym razie dość szowinistyczne. Szczególność praw może być różnego rodzaju; mogą one na 

przykład posiadać rozmaite matematyczne własności, których dotychczas nie poznaliśmy. Może 

rzeczywiste prawa odpowiadają maksymalnym lub minimalnym wartościom jakichś nie znanych 

jeszcze wielkości. Tego po prostu nie wiemy.

background image

Piękno jako wskaźnik prawdy

Do   tej   pory   zajmowałem   się   aspektami   matematycznymi.   Ale   może   nasze   prawa 

wyróżniają   się   w   jakiś   inny,   bardziej   wyrafinowany   sposób,   na   przykład   pod   względem 

estetycznym. Wśród naukowców rozpowszechnione jest przekonanie, że piękno może prowadzić 

do prawdy, i wiele odkryć w fizyce teoretycznej zostało dokonanych przez fizyków stawiających 

nowej   teorii   wymóg   matematycznej   elegancji.   Niekiedy,   gdy   przeprowadzenie   testów 

laboratoryjnych  nastręcza  nazbyt  wielkie trudności, takie  estetyczne  kryteria  mogą  odgrywać 

nawet większą rolę niż eksperymenty. Gdy Einstein omawiał raz test eksperymentalny swojej 

ogólnej   teorii   względności,   zapytano   go,   co   by   uczynił,   gdyby   eksperyment   ten   dał   wyniki 

niezgodne z teorią. Możliwość ta bynajmniej nie zbiła go z tropu. „Tym gorzej dla eksperymentu 

- odparł. - Teoria jest słuszna!” Paul Dirac, fizyk-teoretyk, którego rozważania natury estetycznej 

doprowadziły do znalezienia  bardziej  eleganckiego  pod względem  matematycznym  równania 

opisującego   elektron,   które   później   pozwoliło   efektywnie   przewidzieć   istnienie   antymaterii, 

podzielając ten pogląd wyraził się, że „ważniejsze, aby równania odznaczały się pięknem, niż by 

odpowiadały wynikom eksperymentów”.

Elegancja   matematyczna   jest   pojęciem,   które   trudno   wytłumaczyć   komuś   nie 

obeznanemu   z   matematyką,   niemniej   jednak   wielce   cenioną   przez   uczonych.   Jednakże,   jak 

wszelkie oceny wartości estetycznych, ma ona charakter wysoce subiektywny. Nikt dotąd nie 

wynalazł   „wzorca   piękna”,   który   pozwoliłby   na   mierzenie   wartości   estetycznych   bez 

odwoływania się do człowieka oceniającego je. Czyż można rzeczywiście twierdzić, że pewne 

formy matematyczne są same w sobie piękniejsze od innych? Być może nie. Wtedy staje się 

bardzo dziwne, że piękno może decydować o wyborze teorii w nauce. Czemu prawa przyrody 

wydają   się   ludziom   piękne?   Nie   ulega   wątpliwości,   że   w   kształtowaniu   poczucia   piękna   u 

człowieka   odgrywają   rolę   przeróżne   czynniki   biologiczne   i   psychologiczne.   Nic   zatem 

zaskakującego w tym,  że na przykład wszystko, co przypomina kobietę, jest pociągające dla 

mężczyzn,   a   płynne   linie   wielu   pięknych   rzeźb,   obrazów   i   budowli   architektonicznych 

niewątpliwie rodzą takie skojarzenia. To, co przyjemne dla oka i ucha, może być podyktowane 

budową i sposobem funcjonowania mózgu. Być  może muzyka  w jakiś sposób odzwierciedla 

rytmy  encefalograficzne.  Tak czy owak, jest w tym  jednak coś dziwnego. Jeżeli piękno jest 

pojęciem uwarunkowanym biologicznie, mającym znaczenie dla przetrwania gatunku ludzkiego, 

background image

z   tym   większym   zaskoczeniem   przyjmujemy,   że   pojawia   się   ono   w   ezoterycznym   świecie 

fundamentalnych praw fizyki, które nie mają żadnego bezpośredniego odniesienia do biologii. Z 

drugiej strony, jeżeli piękno to coś więcej niż czysta biologia, jeżeli kontemplacja piękna polega 

na docieraniu do czegoś głębszego, jakiejś istotnej warstwy rzeczywistości, to jest z pewnością 

faktem   o   dużym   znaczeniu,   iż   to   „coś”   miałoby   się   odbijać   w   fundamentalnych   prawach 

Wszechświata.

W rozdziale 6 opisywałem, jak wielu wybitnych uczonych wyrażało poczucie, że czerpią 

inspirację   z   jakiegoś   myślowego   kontaktu   z   platońską   dziedziną   form   matematycznych   i 

estetycznych. Szczególnie Roger Penrose wiarygodnie przedstawia owo „wtargnięcie” twórczego 

umysłu w dziedzinę idealną i bezpośredni ogląd form matematycznych, które są w jakimś sensie 

piękne. W istocie uważa on piękno za decydujący czynnik, którym kierował się w większości 

swoich badań matematycznych. Może to być zaskakujące dla czytelników, którzy mieli wizję 

matematyki jako bezosobowej, zimnej, oschłej i rygorystycznej dyscypliny. Lecz, jak wyjaśnia 

Penrose:   „Ścisły   dowód   stanowi   zwykle   dopiero   ostatni   etap.   Wcześniej   prowadzi   się 

poszukiwania na drodze intuicyjnej i względy estetyczne odgrywają wtedy niezmiernie ważną 

rolę”.

background image

Czy Bóg jest bytem koniecznym?

Dwoje oczu ma czlowiek

Jedno widzi rzeczy marne które czas pochłania

Drugie zaś

To co boskie i wieczne

Księga Angelusa Silesiusa

Odchodząc od pytania, czy i w jakim sensie możemy uznać, że żyjemy w najlepszym z 

możliwych światów, stajemy przed jeszcze głębszym problemem. Ujmując rzecz prosto: jeżeli 

świat ma swoje uzasadnienie i tym uzasadnieniem nie może być on sam, to musi nim być jakiś 

byt wobec świata zewnętrzny, np. Bóg. Lecz co z kolei stanowi uzasadnienie Boga? Ta stara 

zagadka „kto stworzył Boga” grozi popadnięciem w nieskończony ciąg uzasadniania. Jak się 

wydaje, można temu zapobiec jedynie przez przyjęcie, że Bóg „uzasadnia się sam”, co oznacza, 

iż jest On bytem koniecznym w sensie logicznym, co wyjaśniałem na początku tego rozdziału. 

Ściślej mówiąc, jeśli Bóg ma stanowić rację dostateczną świata, to wynika stąd, że sam musi być 

bytem   koniecznym,   ponieważ   gdyby   był   bytem   przygodnym,   to   ciąg   uzasadnień   trzeba   by 

kontynuować, gdyż moglibyśmy postawić pytanie, jakie czynniki zewnętrzne determinują Boga i 

jego  naturę.   Jednak  czy  pojęcie   bytu   koniecznego,   bytu   zawierającego   w   sobie   rację   swego 

własnego istnienia, ma w ogóle sens? Wielu filozofów dowodziło, że idea ta jest sprzeczna lub 

bezsensowna. Z pewnością ludzie nie są w stanie pojąć natury takiego bytu, lecz to nie oznacza 

bynajmniej, że samo pojęcie bytu koniecznego jest wewnętrznie sprzeczne.

Zmagając się z pojęciem bytu koniecznego, można zacząć od postawienia pytania, czy w 

ogóle istnieje coś, co zachodzi w sposób konieczny.  Aby zaostrzyć  nasz apetyt, na początek 

rozważmy stwierdzenie: „Istnieje co najmniej jedno prawdziwe zdanie”. Nazwijmy je zdaniem 

A. Czy A jest prawdziwe w sposób konieczny? Przypuśćmy, że twierdzę, iż A jest fałszywe. 

Nazwijmy to zdaniem B: „A jest fałszywe”. Ale jeżeli A jest fałszywe, to B również, jako że B 

jest zdaniem, a jeżeli A jest fałszywe, nie istnieje żadne zdanie prawdziwe. Tak więc A musi być 

prawdziwe. Jest zatem logicznie niemożliwe, by nie istniały żadne zdania prawdziwe.

Jeżeli   istnieją   konieczne   zdania,   to   pojecie   bytu   koniecznego   nie   jest   już   z   góry 

absurdalne. Tradycyjna koncepcja Boga w teologii chrześcijańskiej, rozwinięta w znacznej części 

background image

przez św. Tomasza z Akwinu w trzynastym wieku, określa Go jako byt konieczny, bezczasowy, 

doskonały i niezmienny, od którego świat jest całkowicie zależny w swym istnieniu, lecz który z 

kolei zupełnie nie zależy od istnienia  świata. Jakkolwiek taka wizja Boga jako ostatecznego 

uzasadnienia  świata zdaje się być  wymuszona  przez wymogi  racjonalności, istnieją poważne 

trudności   z   pogodzeniem   jej   z   ideą   przygodnego,   zmiennego   świata,   a   zwłaszcza   świata,   w 

którym występują istoty obdarzone wolną wolą. Jak ujął to niegdyś ateistyczny filozof A.J. Ayer, 

ze zdań koniecznych wynikają tylko zdania konieczne.

Ta niepokojąca sprzeczność trapiła zasadniczo myśl teologiczną Zachodu już od czasów 

Platona. U Platona, jak widzieliśmy, samo pojęcie „racjonalności” związane było z istnieniem 

abstrakcyjnego świata wiecznych, niezmiennych i doskonałych Idei, który stanowił dla niego 

jedynie prawdziwą rzeczywistość. I w tej niezmiennej dziedzinie Platon umieścił najwyższy cel 

poznania,   Dobro.   W   przeciwieństwie   do   niej,   dostępny   bezpośrednio   zmysłom   świat   rzeczy 

materialnych nieustannie się zmienia. Powiązanie wiecznego świata Idei i przemijającego świata 

materii   stwarza   zatem   znaczne   problemy.   Jak   wyjaśniałem   w   rozdziale   l,   Platon   postulował 

istnienie Demiurga, bytującego w czasie, który stara się kształtować materię jak najwierniej na 

wzór   Idei,   lecz   to   naiwne   usiłowanie   pogodzenia   tego,   co   zmienne,   z   tym,   co   Niezmienne, 

jeszcze   bardziej   uzmysławia,   jak   poważny   jest   paradoks   pojęciowy   zawarty   we   wszelkich 

próbach uzasadnienia przygodnego świata.

Ważne jest, aby zrozumieć,  że paradoks ten nie jest jedynie technicznym  problemem 

pojawiającym   się   w   dyskusjach   teologicznych,   lecz   nieuchronną   konsekwencją   pewnych 

racjonalnych   metod   uzasadniania.   Kartezjusz   i   jego   zwolennicy   starali   się   osadzić   nasze 

doświadczenie świata na opoce intelektualnej pewności. Jeśli będziemy trzymać się tej tradycji, 

to w naszych poszukiwaniach wiedzy pewnej nieuniknienie dojdziemy do systemów pojęć bez-

czasowych, takich jak matematyka i logika, ponieważ prawda rzeczywista z definicji nie zależy 

od czasu. Rzetelność tych abstrakcyjnych dziedzin jest zapewniona przez to, że ich elementy 

spojone   są   ze   sobą   pewnością   koniecznego   wynikania   logicznego.   Jednak   sam   świat 

doświadczenia, na którego uzasadnieniu nam zależy, jest przygodny i zależny od czasu.

Napięcia wywołane tą sprzecznością pojawiają się w nauce równie często, jak w religii. 

Widzimy je w nieustających trudnościach, w jakie wikłają się próby pogodzenia wiecznych praw 

fizyki z istnieniem we Wszechświecie „strzałki czasu”. Widzimy je w zażartych debatach, jak 

możliwy   jest   postęp   w   ewolucji   biologicznej   zachodzącej   wskutek   chaotycznych   mutacji.   I 

background image

widzimy  je  w  starciu  paradygmatów,   jakie   towarzyszy  najnowszym  badaniom  nad  układami 

samoorganizującymi się, które spotykają się z taką wrogością, że wskazuje to na jakieś głęboko 

zakorzenione uprzedzenia kulturowe.

Oryginalnym   wkładem   myśli   chrześcijańskiej   w   przezwyciężenie   tego   paradoksu   jest 

doktryna stworzenia ex nihilo, którą przedstawiłem w rozdziale 2. Była to śmiała próba wyrwania 

się z logicznej pułapki przez zapostulowanie, aby pozaczasowy byt konieczny nadprzyrodzoną 

mocą   powoływał   do   istnienia   (nie   w   sensie   czasowym)   świat   materialny   w   wyniku   wolnej 

decyzji. Przez zadeklarowanie, że świat stworzony jest czymś innym niż Stwórca, czymś, czego 

Bóg   nie   musiał   stwarzać,   lecz   zdecydował   się   stworzyć,   myśliciele   chrześcijańscy   uniknęli 

zarzutów, na jakie narażona była alternatywna koncepcja świata jako emanacji Boga, w której 

świat fizyczny wyłania się bezpośrednio z istoty Boga, dziedzicząc w ten sposób Jego konieczny 

charakter. Zasadnicze znaczenie miało w tym przypadku wprowadzenie elementu boskiej Woli. 

Wolna wola z definicji zakłada przygodność, ponieważ o wolnym wyborze możemy mówić tylko 

wtedy,   jeśli   mógł   on   być   inny.   Zatem   jeśli   Bóg   dysponował   swobodą   wyboru   pomiędzy 

alternatywnymi   możliwymi   światami,   przygodność   rzeczywistego   świata   znajduje   swoje 

uzasadnienie. Natomiast wymóg poznawalności jest spełniony poprzez przypisanie Bogu natury 

racjonalnej, na mocy której jego decyzje również są racjonalne.

Może się wydawać, że osiągnięto w ten sposób pewien rzeczywisty postęp. Na pierwszy 

rzut oka koncepcja stworzenia ex nihilo stanowi rozwiązanie paradoksu, w jaki sposób zmienny, 

przygodny świat może być uzasadniony przez pozaczasowy byt konieczny. Niestety, mimo iż 

całe pokolenia filozofów i teologów usiłowały nadać tej koncepcji spójny logicznie kształt, nie 

udało się tego osiągnąć. Zasadniczą przeszkodę stanowi trudność wytłumaczenia, dlaczego Bóg 

zdecydował się stworzyć ten, a nie inny, świat.

W przypadku wolnej woli u ludzi, ostateczny wybór zależy od ich wewnętrznej natury 

Coz więc możemy powiedzieć o naturze Boga? Można przypuszczać, ze jest ona wyznaczona 

przez to, ze Bóg jest bytem koniecznym Nie chcielibyśmy tu przywoływać możliwości, ze jest 

wiele   rożnych   typów   Boga,   gdyż   wtedy   wprowadzanie   pojęcia   Boga   me   prowadziłoby   do 

niczego Zostalibyśmy z problemem, dlaczego istnieje ten konkretny Bóg, a me inny Cały sens 

powoływania się na Boga jako byt konieczny polega na tym, ze jest On jedyny możliwy jego 

natura me mogłaby być inna Lecz jeśli istota Boga wyznaczona jest przez jego konieczność, czy 

był on w stanie stworzyć świat innym, mz jest? Tak mogłoby być tylko wtedy, gdyby stworzenie 

background image

nie   było   aktem   racjonalnego   wyboru,   lecz   jakimś   kaprysem,   boskim   odpowiednikiem   rzutu 

monetą   Jednak   w   takim   razie   istnienie   świata   i   tak   ma   charakter   arbitralny,   więc   celowość 

wprowadzania Boga staje się problematyczna.

Filozof Keith Ward przeprowadził szczegółową analizę sprzeczności pomiędzy konieczną 

naturą Boga a przygodnym charakterem świata, streszczając jej istotę następująco:

Przede   wszystkim,   jeżeli   Bóg   jest   naprawdę   samoistny,   jak   wymaga   tego   aksjomat 

racjonalności, jak doszło do tego, ze wogóle stworzył świat.

 

Wydaje się to czymś arbitralnym i 

bezcelowym. Z drugiej strony, jeżeli Bóg jest naprawdę bytem koniecznym i niezmiennym, w 

jaki   sposób   byłby   w   stanie   podjąć   wolną   decyzję

?  

Przecież   wszystko,   co   czyni,   czyni   z 

konieczności   i   bez   żadnej   możliwości   wyboru.   Nieusuwalny   dylemat   -   albo   akty   Boga   są 

konieczne, a zatem nie wolne (nie mogłyby być inne), albo są one wolne, a zatem arbitralne (nic 

nie może ograniczać wolnej woli Boga) - zabijał klina olbrzymiej większości chrześcijańskich 

filozofów przez stulecia.

Problem   polega   na   tym,   ze   cokolwiek   byśmy   zrobili,   powracamy   do   tej   samej 

podstawowej trudności, ze byt czysto przygodny nie może powstać z bytu w pełni koniecznego.

Jeżeli Bóg jest stwórcą lub przyczyną przygodnego świata, to sam musi być przygodny i 

istniejący w czasie, lecz jesli Bóg jest bytem koniecznym, to wszystko, co stwarza, musi być 

stwarzane w sposób konieczny i niezmienny. Na tej opoce zasadzają się obydwie wersje teizmu. 

Wymóg racjonalności pociąga za sobą istnienie bytu koniecznego, niezmiennego i wiecznego. 

Stworzenie zdaje się wymagać Boga przygodnego, istniejącego w czasie, który oddziaływa ze 

światem stworzonym, a zatem nie jest samoistnym bytem w sobie. Lecz jak to z sobą pogodzi?ć

I w innym miejscu:

Jak może byt, który jest konieczny i niezmienny, mieć zdolność uczynienia wszystkiego? 

Jako konieczny, me może uczynić nic innego, mz czyni, jako niezmienny, nie może uczynić 

niczego nowego ani oryginalnego. Nawet jeżeli stworzenie pojmować będziemy jako dokonujący 

się poza czasem akt Boga, rzeczywista trudność nadal pozostanie, gdyż jako że Bóg jest w pełni 

konieczny, będzie musiał to być akt konieczny, który pod żadnym względem nie mógłby być 

inny. Pogląd ten kłóci się z zasadniczym motywem tradycji chrześcijańskiej, mianowicie, ze Bóg 

nie musiał stwarzać świata i nie musiał stwarzać właśnie tego świata Jak może byt konieczny 

odznaczać się jakąkolwiek wolnością

?

Taką samą tezę stawia Schubert Ogden.

background image

Teologowie  zazwyczaj  mówią  nam,  ze  Bóg stworzył  świat  w  akcie  wolnej  woli,  jak 

świadczy   o   tym   przygodny,   czyli   wewnętrznie   niekonieczny   świat   naszego   doświadczenia. 

Jednocześnie,   trzymając   się   utartych   założeń   klasycznej   metafizyki,   mówią,   ze   boski   akt 

stworzenia   wypływa   z   jego   wiecznej   istoty,   która   jest   pod   każdym   względem   konieczna   i 

wyklucza   wszelką   przygodność.   Zatem,   gdybyśmy   chcieli   potraktować   ich   słowa   poważnie, 

uznając   obydwa   twierdzenia   za   prawdziwe,   popadniemy   natychmiast   w   nierozwiązywalną 

sprzeczność, ze całkowicie przygodny świat powstał w wyniku  całkowicie koniecznego aktu 

stworzenia.

Całe tomy zapisane zostały przez filozofów i teologów próbujących wydobyć się z tej 

jaskrawej, uporczywej sprzeczności Z braku miejsca omówię tu jedynie jeden konkretny, dość 

oczywisty sposób, w jaki można tego dokonać.

background image

Dwubiegunowy Bóg i chmura Wheelera

Jak widzieliśmy,  Platon rozwiązał  antagonizm konieczności  i przygodności  postulując 

istnienie dwóch istot boskich Dobra i Demiurga, z których pierwsza była konieczna, a druga 

przygodna. Być może da się spełnić wymogi monoteizmu przez pokazanie, że sytuację tę można 

właściwie opisać jako istnienie w rzeczywistości dwóch komplementarnych aspektów jednego, 

„dwubiegunowego”, Boga. Jest to stanowisko podzielane przez wyznawców kierunku znanego 

pod nazwą „teologu procesu”.

Filozofia   procesu   jest   próbą   przedstawiania   sobie   świata   nie   jako   zbioru   ciał 

materialnych, ani nawet zbioru zdarzeń, lecz procesu przebiegającego w określonym kierunku. 

Zasadniczą rolę odgrywa zatem w niej upływ  czasu i uznaje ona wyższość stawania się nad 

byciem. W przeciwieństwie do sztywnego mechanistycznego obrazu świata, jaki wyłania się z 

prac   Newtona   i   jego   następców,   w   filozofii   procesu   kładzie   się   nacisk   na   otwarty   i 

indeterministyczny   charakter   przyrody.   Przyszłość   nie   zawiera   się   w   teraźniejszości;   zawsze 

możliwy   jest   alternatywny   rozwój   wypadków.   W   ten   sposób   przyrodzie   przypisana   została 

wewnętrzna wolność, jaka nie występowała w koncepcji świata-mechanizmu Laplace'a. Wolność 

ta zostaje osiągnięta za cenę odejścia od redukcjonizmu; świat staje się czymś więcej niż prostą 

sumą   swoich   elementów.   Musimy   porzucić   pogląd,   że   układy   fizyczne,   takie   jak   kamienie, 

chmury czy ludzie, nie są wyłącznie zbiorowiskami atomów, i uznać, że struktura rzeczywistości 

ma wiele odrębnych poziomów. Człowieka, na przykład, bez wątpienia można rozpatrywać jako 

zbiorowisko atomów, lecz zawiera on także szereg wyższych poziomów strukturalnych, których 

ten prymitywny opis nie uwzględnia, a które odgrywają zasadniczą rolę w tym, co rozumiemy 

pod   pojęciem   „osoby”.   Przy   traktowaniu   układów   złożonych   jako   hierarchii   poziomów 

strukturalnych   proste   widzenie   przyczynowości   jako   dokonującej   się   wyłącznie   „od   dołu”, 

począwszy od cząstek elementarnych oddziaływających ze sobą wzajemnie, musi ustąpić miejsca 

bardziej   wyrafinowanemu,   wielopoziomowemu   obrazowi,   w   którym   wyższe   poziomy   mogą 

także   oddziaływać   na   niższe   poziomy.   Pozwala   to   wprowadzić   do   biegu   spraw   w   świecie 

elementy   teleologii,   czyli   zachowań   celowych.   Filozofia   prowadzi   w   naturalny   sposób   do 

ekologicznego   pojmowania   świata   jako   wielkiego   organizmu,   przypominającego   poglądy 

kosmologiczne  Arystotelesa, Ian Barbour uważa, że wizja rzeczywistości  w filozofii procesu 

wyraża   się  w   poglądzie,  że   świat   jest  w  większym   stopniu  społecznością  niezależnych  istot 

background image

aniżeli zbiorowiskiem trybików w maszynie.

Jakkolwiek motywy przewodnie filozofii procesu zajmują poczesne miejsce w historii 

filozofii,   w   nauce   myślenie   w   kategoriach   procesu   stało   się   modne   stosunkowo   niedawno. 

Powstanie   mechaniki   kwantowej   na   przełomie   lat   trzydziestych   naszego   stulecia   położyło 

definitywnie   kres   pojmowaniu   świata   na   kształt   deterministycznej   maszyny,   ale   decydujący 

wpływ miały tu dopiero najnowsze badania dotyczące chaosu, samoorganizacji i teorii systemów. 

Zmusiły one badaczy do myślenia w coraz większym stopniu w kategoriach układów otwartych, 

które   nie  są  ściśle   wyznaczone   przez   swoje  części  składowe,   ponieważ  pozostają  także   pod 

wpływem swojego środowiska. Zazwyczaj układy otwarte o znacznym stopniu komplikacji są 

bardzo   czułe   na   oddziaływania   zewnętrzne,   co   czyni   ich   zachowanie   nieprzewidywalnym, 

wprowadzając do nich w ten sposób pewien element wolności. Najbardziej zaskakujące było, że 

układy   otwarte   mogą   także   zachowywać   się   w   sposób   uporządkowany,   według   określonych 

prawidłowości, pomimo ich indeterministycznego charakteru i pozostawania na łasce wyraźnie 

przypadkowych zaburzeń zewnętrznych. Najwyraźniej istnieją jakieś ogólne prawa strukturalne, 

rządzące zachowaniem układów złożonych  na wyższych poziomach organizacji, prawa, które 

istnieją   niezależnie   od   praw   fizyki   (które   działają   na   najniższym   poziomie   poszczególnych 

cząstek). Prawa te są niesprzeczne z prawami fizyki, lecz nie sprowadzają się do nich ani nie 

mogą być z nich wyprowadzone. W ten sposób naukowcy doszli do ważnego pojęcia porządku 

przygodnego.   Bardziej   wyczerpujące   omówienie   tej   problematyki   znajduje   się   w   moich 

książkach The Cosmic Blueprint The Matter Myth.

Myślenie w kategoriach procesu zostało wprowadzone do teologii przez Alfreda Northa 

Whiteheada, matematyka i filozofa, który wspólnie z Bertrandem Russellem napisał wpływowe 

dzieło  Principia Mathematica.  Whitehead wysunął tezę, że świat fizyczny stanowi wzajemnie 

połączony system tego, co nazwał „zaktualizowanymi możliwościami”. Są one czymś więcej niż 

po prostu zdarzeniami, gdyż cechuje je wolność i zdolność uczenia się, które nie występowały w 

mechanistycznej   wizji   świata.   Rdzeniem   filozofii   Whiteheada   jest   to,   że   Bóg   jest   sprawcą 

porządku   w   świecie,   lecz   nie   działając   bezpośrednio,   lecz   poprzez   stworzenie   różnych 

możliwości, które świat fizyczny aktualizuje potem według własnego uznania. W ten sposób 

Bóg, nie naruszając zasadniczo otwartego i indeterministycznego charakteru świata, jest pomimo 

to   w   stanie   sprawiać,   by  podążał   on  ku   dobru.  O   istnieniu   takiego   subtelnego,   pośredniego 

oddziaływania może świadczyć na przykład progresywny charakter ewolucji biologicznej oraz 

background image

występująca w świecie tendencja do samoorganizowania się w coraz to bardziej różnorodne i 

złożone   struktury.   Whitehead   zastępuje   w   ten   sposób   monarchistyczną   wizję   Boga   jako 

wszechmocnego   stwórcy   władającego   światem   koncepcją   Boga-współuczestnika   procesów 

twórczych zachodzących w świecie. Nie jest on już niezależnym i niezmiennym bytem w sobie, 

lecz wpływa - i znajduje się pod wpływem - na rozwój wydarzeń postępujący w rzeczywistym 

świecie fizycznym. Z drugiej strony, Bóg nie jest przy tym w pełni poddany strumieniowi czasu. 

Zasadnicza   natura   i   cele   Boga   pozostają   niezmienne   i   wieczne.   W   ten   sposób   aspekty 

pozaczasowego bytowania i zmienności w czasie zostają ze sobą pogodzone w ramach jednej 

koncepcji.

Niektórzy   utrzymują,   ze   pojęcie   „dwubiegunowego”   Boga   również   pozwala   na 

pogodzenie   konieczności   z   przygodnością.   Jednakże   wiąże   się   to   w   tym   przypadku   z 

porzuceniem   wszelkiej   nadziei,   by   Bóg   mógł   być   prosty   w   swej   boskiej   doskonałości,   jak 

zakładał   Tomasz   z   Akwinu.   Keith   Ward,   na   przykład,   zaproponował   model   złożonej   natury 

Boga: niektóre jego elementy miałyby być konieczne, a inne przygodne. Taki Bóg, aczkolwiek 

istniejący w sposób konieczny, poddany jest jednak wpływom świata stworzonego i własnych 

działań stwórczych, przez co wprowadzony zostaje element otwartości czy tez wolności.

Przyznaję,   ze   sprawiło   mi   wielką   trudność   zrozumienie   filozoficznych   zawiłości 

niezbędnych przy uzasadnianiu koncepcji dwubiegunowego Boga. Pomoc przyszła jednakże z 

nieoczekiwanej strony od mechaniki kwantowej. Zrekapitulujmy raz jeszcze zasadnicze wnioski 

wypływające z kwantowej zasady nieoznaczoności. Cząstka, na przykład elektron, nie może mieć 

jednocześnie dokładnie  wyznaczonego  położenia  i pędu. Można dokonać pomiaru  położenia, 

otrzymując jego dokładną wartość, lecz wtedy wartość pędu będzie całkowicie nieokreślona, i na 

odwrót. W ogólnym przypadku dla danego układu kwantowego niemożliwe jest określenie z 

góry,   jaki   wynik   otrzyma   się   po   przeprowadzeniu   pomiaru   można   tylko   podać   wartości 

prawdopodobieństwa otrzymania poszczególnych wartości. Zatem, jeżeli dokonuje się na takim 

układzie pomiaru położenia, mamy do dyspozycji szereg możliwych wyników. Układ ten posiada 

więc charakter niedeterministyczny - można powiedzieć, ze ma wolność wyboru spośród wielu 

możliwości   -   i   rzeczywisty   wynik   pomiaru   jest   czysto   przygodny.   Z   drugiej   strony,   to 

eksperymentator   określa,   czy   pomiar   będzie   dotyczył   położenia,   czy   pędu,   a   więc   wybór 

alternatywnych zbiorów wartości (to znaczy, czy to będzie zbiór możliwych wartości położenia, 

czy wartości pędu) dokonywany jest przez czynnik zewnętrzny. Z punktu widzenia elektronu 

background image

istniejące   alternatywne   możliwości   są   czymś   koniecznym,   a   faktycznie   zrealizowany   wybór 

czymś przypadkowym.

Aby uczynić to bardziej jasnym, pozwolę sobie przytoczyć znaną historię, pochodzącą od 

Johna   Wheelera.   Pewnego   dnia   współpracownicy   Wheelera   zaproponowali   mu   grę   w 

dwadzieścia pytań, nie wtajemniczając go bliżej, o co im chodzi. Przypomnijmy, ze tradycyjna 

gra   polega   na   odgadnięciu   przez   jednego   z   grających   uzgodnionego   przez   pozostałych 

uczestników słowa, przy czym może on zadać co najwyżej dwadzieścia pytań, na które można 

odpowiadać tylko tak-nie. Wheeler rozpoczął od standardowych pytań czy to jest duże? czy to 

jest coś żywego? Z początku odpowiedzi padały szybko, później coraz wolniej, z coraz większym 

wahaniem. W końcu spróbował zgadnąć „Czy to jest chmura?” Odpowiedź była twierdząca i 

wszyscy wkoło wybuchnęli śmiechem. Koledzy ujawnili następnie Wheelerowi, że chcąc mu 

spłatać figla, nie wybrali wcale żadnego słowa, lecz umówili się, iż będą udzielać odpowiedzi 

czysto przypadkowych, byle tylko nie były sprzeczne z poprzednimi odpowiedziami. Mimo to 

odpowiedzi te doprowadziły do rozwiązania. Rozwiązanie to oczywiście było przygodne, gdyż 

nikt go z góry nie ustalał, lecz nie było całkiem arbitralne, po części wyznaczone było przez 

pytania, które Wheeler zdecydował się zadać, a po części wynikało z czystego przypadku. W ten 

sam sposób rzeczywistość odkrywana w procesie pomiaru kwantowego jest częściowo zależna 

od tego, jakie pytania eksperymentator postawi przyrodzie (tzn czy będzie wyznaczał dokładne 

położenie,   czy   dokładny   pęd),   a   częściowo   przez   przypadek   (tzn   prawdopodobieństwo 

otrzymania określonych wartości jako wyników pomiarów tych wielkości).

Powróćmy teraz do przykładu teologicznego. Z podobnym połączeniem przygodności i 

konieczności   mamy   do   czynienia   w   przypadku   Boga,   który   w   sposób   konieczny   wyznacza 

alternatywne światy, jakie możliwe będą do realizacji, lecz pozostawia przyrodzie wolność co do 

wyboru   którejś   z   tych   możliwości.   W   teologii   procesu   czyii   się   założenie,   że   alternatywne 

możliwości są z konieczności ustalane tak, aby osiągnąć założony cel, tzn by kierowały czy też 

wspomagały (pod innymi względami wolny) świat w ewolucji ku jakiemuś dobru. Jednakże to 

ukierunkowywanie   nie   wyklucza   otwartości.   Dlatego   świat   nie   jest   ani   całkowicie 

zdeterminowany ani w pełni arbitralny, lecz, tak jak „chmura Wheelera”, stanowi ścisły związek 

celowego wyboru i czystego przypadku.

background image

Czy Bóg może nie istnieć?

Argumentacja, z której wnioski rozpatrywałem dotychczas w tym rozdziale, nosi nazwę 

kosmologicznego dowodu istnienia Boga. Dowód ten nie polega na wykazaniu, że istnienie Boga 

jest koniecznością logiczną. Można sobie przecież wyobrazić, iż nie istnieje ani Bóg, ani świat, 

albo że istnieje tylko świat, a nie Bóg. Na pierwszy rzut oka nie widać żadnej sprzeczności 

logicznej   w   obydwu   przypadkach.   Zatem,   nawet   gdyby   dało   się   wykazać,   że   pojęcie   bytu 

koniecznego ma sens, to nie wynikałoby z tego, że taki byt istnieje, a tym bardziej że musi 

istnieć.

Historia   teologii   zna   jednak   próby   udowodnienia,   że   nieistnienie   Boga   jest   logiczną 

niemożliwością. Argumentacja ta, znana jako „dowód ontologiczny”, pochodzi od św. Anzelma i 

wygląda mniej więcej w ten sposób: Bóg z definicji jest najbardziej doskonałą z możliwych do 

pomyślenia   rzeczy.   Z   kolei   coś,   co   realnie   istnieje,   jest   z   oczywistych   względów   bardziej 

doskonałe niż sama myśl o tej rzeczy. (Detektyw, który naprawdę istniał, słynny Fabian ze Scot-

land Yardu, jest bardziej doskonały niż postać literacka,  Sherlock Holmes). Dlatego też bóg 

realnie istniejący jest bardziej doskonały niż bóg fikcyjny. Ale Bóg jest najbardziej doskonałym z 

możliwych do pomyślenia bytów, więc wynika stąd, że musi istnieć.

Dowód   ontologiczny   sprawia   wrażenie   sztuczki   logicznej   i   nie   wygląda,   aby   był 

użyteczny filozoficznie. W istocie jednak wielu filozofów w różnych okresach traktowało go 

poważnie, w tym przez krótki czas nawet ateista Bertrand Russell. Niemniej jednak, ogólnie 

rzecz biorąc, nawet wśród teologów nie znalazłoby się zbyt  wielu chętnych  do jego obrony. 

Jeden problem z tym dowodem polega na traktowaniu istnienia jako własności przysługującej 

rzeczy,  podobnie jak masa i kolor. Porównujemy ideę boga-realnie-istniejącego z ideą boga-

który-nie-istnieje. Ale istnienie nie jest atrybutem, który można przypisać czemuś lub nie, jak 

zwykłe własności fizyczne. Ma sens powiedzenie, że mam w kieszeni pięć małych monet i sześć 

dużych, lecz cóż to miałoby znaczyć, gdybym powiedział, że mam tam pięć monet istniejących i 

sześć nieistniejących?

Kolejnym problemem w przypadku dowodu ontologicznego jest wymóg, by Bóg stanowił 

rację świata. Nie wystarczy, aby istniał byt logicznie konieczny, lecz nie posiadający żadnego 

odniesienia do świata. Trudno sobie wyobrazić, aby byt  przynależący do sfery czystej logiki 

mógł   uzasadniać   przygodne   własności   świata.   Dowód   ontologiczny   opiera   się   na   tym,   co 

background image

filozofowie   nazywają   „zdaniami   analitycznymi”.   Zdanie   analityczne   to   takie   zdanie,   którego 

prawdziwość (lub fałszywość) wynika wyłącznie ze znaczenia terminów w nim występujących. 

Zatem „Wszyscy kawalerowie są mężczyznami” jest zdaniem analitycznym. Zdania, które nie 

należą do klasy zdań analitycznych, nazywamy „syntetycznymi”, ponieważ ustalają one związki 

pomiędzy   rzeczami   nie   powiązanymi   na   mocy   samej   definicji.   I   tak,   w   teoriach   fizycznych 

występują zawsze zdania syntetyczne, gdyż stanowią one wypowiedzi o faktach w przyrodzie, 

które   mogą   być   testowane   empirycznie.   Skuteczność   matematyki   w   opisywaniu   przyrody,   a 

zwłaszcza   rządzących   nią   praw,   może   sprawiać   wrażenie,   jak   się   przekonaliśmy,   niektórzy 

faktycznie bronili takiej tezy), że w świecie nie istnieje nic oprócz matematyki, a matematyka z 

kolei nie zawiera nic poza definicjami i tautologiami, tzn. zdaniami analitycznymi. Uważam ten 

pogląd za duże nieporozumienie. Choćbyśmy nie wiem jak się starali, nie można wyprowadzić 

zdania syntetycznego ze zdań analitycznych.

Do przeciwników dowodu ontologicznego należał Immanuel Kant. Utrzymywał on, że 

jeśli   mają   istnieć   sensowne   twierdzenia   metafizyczne,   to   muszą   istnieć   zdania,   które   są 

koniecznie prawdziwe nie tylko na mocy samej definicji. Jak wspominałem już w rozdziale l, 

Kant był przekonany, iż posiadamy jakąś wiedzę  a priori.  Tak więc Kant twierdził, że muszą 

istnieć   prawdziwie   syntetyczne   zdania  a   priori  w   przypadku   każdego   procesu   myślowego 

odnoszącego się do świata obiektywnego. Tego typu zdania aprioryczne byłyby z konieczności 

prawdziwe, niezależnie od przygodnej charakterystyki świata, to znaczy, byłyby one prawdziwe 

w każdym świecie. Niestety, filozofom do tej pory nie udało się znaleźć żadnych koniecznych 

zdań syntetycznych a priori.

Jeśli nawet nie istnieją zdania syntetyczne  konieczne, to może istnieją takie, które są 

niemożliwe   do   zakwestionowania.   Można   sobie   wyobrazić,   że   system   takich   zdań   mógłby 

posłużyć   do   uzasadnienia   przygodnych   własności   świata,   takich   jak   konkretna   postać   praw 

fizyki.   Niejednego   by   to   zadowoliło.   Fizyk   David   Deutsch   twierdzi,   że   „zamiast   próbować 

otrzymać »coś z niczego«, czyli zdanie syntetyczne z analitycznego”, powinniśmy wprowadzić 

na   fundamentalnym   poziomie   fizyki   zdania   syntetyczne,   „które   trzeba   i   tak   postulować,   z 

powodów leżących poza samą fizyką”. Dalej podaje przykład: Rzeczą, którą zawsze milcząco 

zakładamy  a priori  przy konstruowaniu teorii fizycznych, jest to, ze teoria ta nie zabrania, by 

dane procesy fizyczne zostały poznane i opisane przez ludzi. Żadne prawo fizyki, które jesteśmy 

w stanie poznać, nie może samo w sobie zabraniać, abyśmy je poznali. Fakt, ze każde prawo 

background image

fizyczne musi spełniać ten bardzo specyficzny warunek, jest syntetycznym zdaniem a priori, nie 

dlatego,   iż   jest   koniecznie   prawdziwe,   lecz   dlatego,   że   nie   możemy   nie   uznawać   go   za 

prawdziwe, starając się poznać te prawa.

John Barrow również sugeruje, ze istnieją pewne prawdy konieczne dotyczące wszystkich 

światów,   w   których   istnieje   obserwator.   Przytacza   on   jako   przykład   różne   wersje   Zasady 

Antropicznej,   które   starają   się   wykazać,   ze   organizmy   biologiczne   obdarzone   świadomością 

mogą   powstać   tylko   we   Wszechświecie,   w   którym   prawa   fizyki   mają   określoną   szczególną 

postać „Te »antropiczne« warunki wskazują na określone własności, jakie Wszechświat musi 

posiadać  a priori,  a które są na tyle  nietrywialne, ze można je uznać za syntetyczne. Zatem 

syntetycznym  a priori  mógłby stać się konieczny wymóg, ze żadne poznawalne prawo fizyki, 

wchodzące  w   skład  »Tajemmcy  Wszechświata«,  nie   może   nam  samo   zabraniać  możliwości, 

abyśmy je poznali”.

Keith   Ward   uważa,   ze   pojęciu   konieczności   logicznej   można   by   nadać   szerszy   sens 

Weźmy na przykład zdanie „Nic nie może być jednocześnie całe zielone i czerwone” Czy jest to 

zdanie koniecznie prawdziwe? Przypuśćmy, ze twierdzę, iż jest ono fałszywe. Moje stwierdzenie 

nie   jest   w   żaden   oczywisty   sposób   wewnętrznie   sprzeczne.   Niemniej   jednak   jest   ono 

prawdopodobnie fałszywe we wszystkich możliwych światach, co nie jest równoważne, by było 

ono logicznie sprzeczne w formalnym sensie. Założenie, ze to pierwsze zdanie jest prawdziwe, 

jest,  by  użyć  słów  Deutscha,  „czymś,  co  i   tak  założylibyśmy”  Może   stwierdzenie   „Bóg  nie 

istnieje”  należy  właśnie   do  tej   kategorii  zdań,   które  wprawdzie   nie  są  sprzeczne   z  żadnymi 

aksjomatami jakiegoś systemu formalnej logiki zdań, lecz są fałszywe we wszystkich możliwych 

światach.

Na   koniec   należałoby   wspomnieć   o   zastosowaniu   przez   Franka   Tiplera   dowodu 

ontologicznego do samego świata (a nie do Boga). Tipler próbuje ominąć zarzut, ze „istnienie” 

nie jest własnością, poprzez zdefiniowanie tego pojęcia w szczególny sposób. Widzieliśmy w 

rozdziale 5, jak Tipler utrzymywał, że światy symulacji komputerowych są dla istot bytujących w 

takim symulowanym świecie równie realne, jak dla nas nasz świat. Wskazuje on, że program 

komputerowy nie jest zasadniczo niczym innym, jak odwzorowaniem jednego zbioru znaków lub 

liczb   na   inny   zbiór.   Można   by   zakładać,   ze   wszystkie   możliwe   odwzorowania,   a   zatem   i 

wszystkie możliwe programy komputerowe istnieją w jakimś abstrakcyjnym, platońskim sensie. 

Wśród   tych   programów   będzie   wiele   (prawdopodobnie   nieskończenie   wiele)   takich,   które 

background image

realizują symulowane światy. Pytanie brzmi, które z tych możliwych symulacji komputerowych 

odpowiadają „fizycznie istniejącym” światom. Używając sformułowania Hawkinga, które z nich 

są wypełnione życiem? Tipler stawia tezę, ze wyłącznie te symulacje, „które są wystarczająco 

złożone,   by   zawierać   obserwatorów   -   istoty   zdolne   do   myślenia   i   odczuwania   -   jako   swoje 

podsymulacje”, są tymi, które istnieją realnie, przynajmniej z punktu widzenia symulowanych 

istot.   Ponadto   symulacje   te   istnieją   w   sposób   konieczny   jako   konsekwencja   logicznych 

warunków związanych  z operacjami  matematycznymi  zawartymi  w odwzorowaniach. Zatem, 

konkluduje Tipler, nasz Wszechświat (i wiele, wiele innych) musi istnieć w następstwie logicznej 

konieczności.

background image

Alternatywne światy

Jakiż więc wniosek można wyciągnąć na zakończenie? Być może czytelnikowi kręci się 

w głowie po tym naszym wypadzie w dziedzinę filozofii, autorowi również. Wydaje mi się, że 

dowód ontologiczny jest próbą zmuszenia Boga do zaistnienia z niczego na mocy samej definicji, 

która w ściśle logicznym sensie skazana jest na niepowodzenie. W wyniku czysto dedukcyjnego 

rozumowania nie można otrzymać więcej, niż się doń włożyło. W najlepszym przypadku można 

wykazać, ze jeśli byt konieczny jest możliwy, to musi istnieć Bóg nie mógłby istnieć jedynie, 

gdyby pojęcie bytu  koniecznego było  sprzeczne wewnętrznie.  Mogę się z tym  zgodzić, lecz 

poprzez dowód ontologiczny nie daje się wykazać w ścisły, formalny sposób niemożliwości, by 

Bóg nie istniał.  Z drugiej  strony,  gdyby  dowód ontologiczny uzupełnić jednym  lub kilkoma 

dodatkowymi założeniami, to może okazałby się on skuteczny. A co jeśli na owe dodatkowe 

założenia (które z konieczności byłyby zdaniami syntetycznymi) składały się jedynie warunki 

umożliwiające racjonalne myślenie? Moglibyśmy wtedy wyciągnąć wniosek, że wobec istnienia 

racjonalnego   poznania   bylibyśmy   w   stanie   rzeczywiście   udowodnić   istnienie   Boga   mocą 

czystego   rozumu.   Jest   to   na   razie   jedynie   spekulacja,   lecz   na   przykład   Keith   Ward   jest 

zdecydowany   nie   wykluczać   takiej   możliwości:   „Nie   jest   absurdalnym   przypuszczenie,   że 

poprzez   analizę   pojęć   »doskonałości«,   »bytu«,   »konieczności«   i   »istnienia«   dojdziemy   do 

przekonania, że możliwość ich sensownego zastosowania do świata może wymagać założenia 

istnienia określonego bytu”.

A   co  z  dowodem   kosmologicznym?  Jeżeli   przyjmujemy,  że   świat  jest   przygodny,   to 

jednym   z   możliwych   sposobów   uzasadnienia   jego   istnienia   jest   postulowanie   istnienia 

transcendentnego Boga. Stajemy wtedy przed problemem, czy Bóg jest bytem koniecznym, czy 

przygodnym. Gdyby Bóg był przygodny, czyż zyskalibyśmy cokolwiek na jego wprowadzeniu, 

skoro z kolei jego własne istnienie i przymioty wymagałyby uzasadnienia? Możliwe jednak, że 

tak. Mogłoby być tak, że hipoteza Boga pozwalałaby uprościć i ujednolicić opis rzeczywistości 

poprzez   „łączne”   uzasadnienie   wszystkich   praw   i   warunków   początkowych.   Prawa   fizyki 

doprowadzałyby nas do pewnego punktu i poszukiwalibyśmy głębszego poziomu wyjaśnienia. 

Na   przykład   filozof   Richard   Swinburne   argumentował,   iż   prościej   jest   zakładać   istnienie 

nieskończonego umysłu, niż przyjmować jako goły fakt istnienie przygodnego Wszechświata. W 

tym przypadku wiara w Boga stanowi w znacznym stopniu przedmiot indywidualnej preferencji i 

background image

przyjmowana   jest   z   powodu   większej   zdolności   uzasadniania,   a   nie   logicznego   przymusu. 

Osobiście również wolę, by istniał poziom uzasadniania głębszy niż prawa fizyki. To, czy na jego 

określenie należy używać terminu „Bóg”, może być oczywiście przedmiotem dyskusji.

Alternatywą jest trzymanie się klasycznego stanowiska teistycznego, które głosi, że Bóg 

jest bytem koniecznym, stwarzającym przygodny świat aktem swej wolnej woli. Znaczy to, iż 

Bóg nie miał żadnego wyboru co do swego istnienia i przymiotów, lecz ma wybór w przypadku 

stworzenia świata. Jak widzieliśmy, pogląd ten jest najeżony filozoficznymi trudnościami, które 

można wszakże próbować przezwyciężyć. Większość proponowanych rozwiązań popada jednak 

w labirynt lingwistycznych subtelności, jakimi różnią się poszczególne definicje „konieczności”, 

„prawdy” i tym podobnych pojęć, z którego pewne z nich wyrywają się poprzez szczere uznanie, 

że stoimy wobec tajemnicy. Ale dwubiegunowa koncepcja Boga, w której czyni się rozróżnienie 

miedzy konieczną naturą Boga a Jego przygodnym działaniem w świecie, jakkolwiek można jej 

zarzucić pewne skomplikowanie, jest najbliższa ominięcia tych problemów.

To, co wynika z takich analiz głośno i wyraźnie, to zasadnicza niemożliwość pogodzenia 

całkowicie pozaczasowego, niezmiennego, koniecznego Boga z twórczym charakterem przyrody, 

ze światem, który potrafi się zmieniać i ewoluować, tworząc coś rzeczywiście nowego, światem, 

w którym  istnieje wolna wola. W istocie nie można mieć  obydwu rzeczy na raz. Albo Bóg 

determinuje   wszystko,   łącznie   ze   swoim   własnym   postępowaniem,   i   wolna   wola   jest   tylko 

złudzeniem - „Predestynacja nie dopuszcza żadnych wyjątków”, pisał Tomasz z Akwinu - albo 

istnieją rzeczy, nad którymi Bóg albo faktycznie nie ma władzy, albo się jej dobrowolnie zrzekł.

Zanim odejdziemy od problemu przygodności, należałoby coś powiedzieć o tak zwanej 

hipotezie wielu światów. Zgodnie z tą koncepcją, która obecnie cieszy się znaczną popularnością 

u   pewnych   fizyków,   nie   istnieje   tylko   jeden   fizyczny   świat,   lecz   ich   nieskończona   liczba. 

Wszystkie   te   światy   współistnieją   ze   sobą   „równolegle”,   przy   czym   każdy   różni   się   od 

pozostałych,   choć   niekiedy   te   różnice   mogą   być   nieznaczne.   Można   sobie   wyobrazić,   że 

wszystko urządzone jest w ten sposób, iż każda pomyślana możliwość zaktualizowana jest w 

którymś ze światów spośród tej nieskończonej liczby. Jeżeli, na przykład, chcemy mieć świat, w 

którym siła ciążenia jest proporcjonalna do odwrotności sześcianu, a nie odwrotności kwadratu 

odległości, to znajdziemy i taki. Większość tych światów jest nie zamieszkana, ze względu na to, 

że warunki fizyczne w nich panujące nie sprzyjają powstaniu organizmów żywych. Tylko te 

światy, w których życie może się zrodzić i rozwinąć się w stopniu umożliwiającym powstanie 

background image

istot obdarzonych  inteligencją,  zawierają obserwatora. Pozostałych  nikt nigdy nie obserwuje. 

Dany obserwator ma możliwość obserwacji tylko jednego konkretnego świata i nie zdaje sobie 

bezpośrednio   sprawy,   że   istnieją   także   inne   światy.   Dany   konkretny   świat   byłby   silnie 

przygodny. Niemniej pytanie „Dlaczego właśnie ten świat?” traci na znaczeniu, jako że istnieją 

wszystkie   możliwe   światy.   Wszystkie   światy   wzięte   razem   nie   miałyby   już   charakteru 

przygodnego.

Hipoteza wielu światów nie wszystkich zadowala. Postulowanie istnienia nieskończonej 

liczby nieobserwowanych i nieobserwowalnych światów tylko po to, by uzasadnić ten, który 

obserwujemy,wydaje   się   zbytnim   balastem.   Prościej   już   postulować   istnienie   jednego 

niewidzialnego Boga. Do tego wniosku dochodzi również Swinburn:

Postulując   Boga   postulujemy   jeden   byt   o   nieskomplikowanej   naturze.   (...)   Postulując 

rzeczywiste   istnienie   nieskończonej   liczby   światów,   wyczerpujących   miedzy   sobą   wszystkie 

dopuszczalne   logicznie   możliwości   (...)   postulujemy   złożoność   i   niezaaranżowany   zbieg 

okoliczności   na   niebotyczną   skalę,   przekraczającą   wszelkie   możliwości   racjonalnego 

uzasadnienia.

Hipoteza wielu światów nie spełnia kryteriów hipotezy naukowej, ponieważ nie można jej 

sfalsyfikować:  jakiego typu  odkrycia  mogłyby  skłonić zwolennika wielu światów  do zmiany 

swych poglądów? W jaki sposób można by przekonać kogoś, kto zaprzecza że istnieją te inne 

światy? Co gorsza, za pomocą tej hipotezy można uzasadnić wszystko, co się chce. Nauka staje 

się zbędna. Nie potrzeba już więcej badać prawidłowości przyrody, ponieważ można je wyjaśnić 

po prostu efektem selekcji, dzięki któremy jesteśmy w stanie żyć w świecie i obserwować go. 

Ponadto jest coś głęboko niezadowalającego pod względem filozoficznym w tych wszystkich 

światach, które nie są obserwowane. Parafrazując Penrose'a, cóż to znaczy, że istnieje coś, co nie 

może   być   nigdy,   nawet   w   zasadzie,   obserwowane?   Będę   miał   na   ten   temat   więcej   do 

powiedzenia w następnym rozdziale.

background image

Bóg, który gra w kości

Przyznaję, że nie da się dowieść racjonalności świata. Z pewnością możliwe jest, że na 

najgłębszym poziomie jest on absurdalny i musimy przyjmować istnienie i własności świata jako 

gołe   fakty,   które   mogłyby   być   równie   dobrze   zupełnie   inne.   Jednakże   osiągnięcia   metody 

naukowej co najmniej pośrednio przemawiają na rzecz racjonalności przyrody. W nauce, jeżeli 

jakieś rozumowanie okazuje się efektywne, stosujemy go tak długo, aż znajdziemy dla niego 

kontrprzykład.

W   mym   własnym   umyśle   nie   żywię   najmniejszych   wątpliwości,   że   argumenty 

przemawiające za koniecznym charakterem świata są o wiele słabsze niż te, które przemawiają za 

istnieniem   bytu   koniecznego,   toteż   osobiście   byłbym   skłonny   wybrać   tę   drugą   możliwość. 

Niemniej jednak zdaję sobie także sprawę, że powiązanie tego pozaczasowego bytu koniecznego 

ze   zmiennym,   przygodnym   światem   doświadczenia   z   omówionych   przeze   mnie   powodów 

nastręcza   poważne   trudności.   Nie   sądzę,   aby   trudności   te   były   innej   natury   niż   różne   nie 

rozwiązane   dotychczas   problemy,   które   i   tak   istnieją,   dotyczące   istoty   czasu,   wolnej   woli   i 

pojęcia   tożsamości   osób.   Nie   jest   też   wcale   dla   mnie   oczywiste,   że   postulowany   w   celu 

zapewnienia racjonalności świata byt ma coś wspólnego z Bogiem osobowym, a tym bardziej z 

Bogiem Biblii czy też Koranu.

Chociaż nie żywię żadnych wątpliwości, że przyroda jest racjonalna, jestem jednocześnie 

zwolennikiem kosmosu twórczego z powodów, które wyłożyłem w mojej książce  The Cosmic 

Blueprint.  I   w   tym   przypadku   nieuchronnie   natykamy   się   na   paradoksalną   konieczność 

pogodzenia bycia i stawania się, tego, co zmienne, i tego, co wieczne. Może to być dokonane 

wyłącznie na drodze kompromisu, który nazywa się „stochastyczność”. Układ stochastyczny to, 

ogólnie mówiąc, taki układ, który podlega nieprzewidywalnym, przypadkowym fluktuacjom. We 

współczesnej   fizyce   stochastyczność   stanowi   zasadniczą   cechę   układów   występujących   w 

mechanice kwantowej. Pojawia się ona również nieuchronnie w przypadku układów otwartych, 

w których mamy do czynienia z chaotycznymi zaburzeniami zewnętrznymi.

We współczesnych teoriach fizycznych racjonalność przejawia się poprzez istnienie praw 

o ustalonej matematycznej postaci, a element twórczy w tym, że prawa te mają zasadniczo postać 

statystyczną. Używając raz jeszcze oklepanego powiedzenia Einsteina, Pan Bóg jednak gra w 

kości.   Istotnie,   statystyczny   charakter   zdarzeń   na   poziomie   atomowym   i   niestabilność   wielu 

background image

układów fizycznych względem małych fluktuacji sprawiają, że przyszłość pozostaje otwarta i nie 

jest do końca wyznaczona przez teraźniejszość. W ten sposób możliwe staje się powstawanie 

nowych form i układów, tak że świat dysponuje czymś na kształt wolności, pozwalającej mu na 

rozwijanie   się   w   nie   spotykany   dotąd   sposób.   Tak   więc   bliższy   jest   mi   wewnętrznie   duch 

opisanej wcześniej w tym rozdziale filozofii procesu.

Zdaję   sobie   sprawę,   że   wprowadzenie   do   przyrody   na   poziomie   fundamentalnym 

stochastyczności   oznacza   częściowe   odejście   od   zasady   racji   dostatecznej.   Jeżeli   przyroda 

odznacza się prawdziwą stochastycznością, to wynik konkretnego „rzutu kostką” naprawdę nie 

jest   przez   nic   zdeterminowany,   co   równoważne   jest   przyznaniu,że   w   danym   konkretnym 

przypadku nie istnieją żadnej racje, dlaczego otrzymaliśmy ten a nie inny wynik. Pozwolę sobie 

podać   przykład.   Wyobraźmy   sobie   elektron   zderzający   się   z   atomem.   Mechanika   kwantowa 

mówi nam, że jest, na przykład, równe prawdopodobieństwo, że elektron ten odchyli się na lewo, 

jak i na prawo. Jeżeli statystyczna natura zdarzeń na poziomie kwantowym jest rzeczywiście 

czymś   fundamentalnym,   a   nie   wynika   wyłącznie   z   naszej   niewiedzy,   to   w   przypadku,   gdy 

elektron faktycznie odchylił się na lewo, a nie na prawo, nie istnieje żaden powód, żeby tak się 

stało.

Czy nie wprowadza się przez to do świata elementu irracjonalności? Einstein uważał, że 

tak   właśnie   jest   („Pan   Bóg   nie   gra   w   kości!”).   Dlatego   nie   pogodził   się   nigdy   z   myślą,   iż 

mechanika   kwantowa   miałaby   stanowić   pełny   opis   rzeczywistości.   Ale   co   dla   jednych   jest 

irracjonalnością, inni nazywają twórczością. A stochastyczność i anarchia to bynajmniej nie to 

samo. Rozwój nowych form i układów podlega ogólnym zasadom powstawania struktur, które 

wytyczają kierunek i skłaniają, a nie zmuszają, materię i energię, by rozwijały się na jeden z 

wielu wyznaczonych z góry sposobów ewolucji. W mojej książce The Cosmic Blueprint użyłem 

na   określenie   tych   ogólnych   tendencji   terminu   „predestynacja”   dla   odróżnienia   od 

„determinizmu”   (w   sensie,   jaki   nadawał   mu   Tomasz   z   Akwinu).   Dla   tych,   którzy,   tak   jak 

zwolennicy teologii procesu, chcą widzieć w twórczym rozwoju świata ukierunkowującą rękę 

Boga   w   miejsce   czystej   spontaniczności,   stochastyczność   stanowi   praktyczny   środek   do 

urzeczywistniania   boskich   zamiarów.   I   nie   ma   żadnej   potrzeby,   by   taki   Bóg   interweniował 

bezpośrednio w przebieg ewolucji poprzez „zbieranie rozrzuconych kwantowych kości”, o czym 

wspomniałem   przelotnie   w   rozdziale   5.   Wytyczanie   kierunku   może   się   dokonywać   poprzez 

(bezczasowe) prawa samoorganizowania się struktur i przepływu informacji.

background image

Można tu postawić zarzut, że jeżeli odejdzie się od zasady racji dostatecznej w jednym 

miejscu, to można od niej odejść wszędzie. Jeżeli dany elektron „ot, tak sobie” ulega odchyleniu 

na lewo, czy nie może być tak, że prawo powszechnego ciążenia czy też kosmiczne warunki 

początkowe   również   zachodzą   „ot,   tak   sobie”?   Sądzę,   że   odpowiedź   na   to   pytanie   jest 

negatywna.   Stochastyczność   właściwa   fizyce   kwantowej   jest   pod   tym   względem   zasadniczo 

odmienna. Warunek całkowitego nieuporządkowania lub czystej przypadkowości - „rzetelność” 

kwantowej kości - narzuca sam z siebie silne ograniczenia. Jakkolwiek poszczególnych zdarzeń 

kwantowych  istotnie  nie można  przewidzieć,  to zbiór wielu takich  zdarzeń podlega  prawom 

mechaniki   statystycznej.   Można   by   rzec,   iż   w   tym   nieporządku   jest   porządek.   Fizyk   John 

Wheeler   podkreślał   fakt   wyłaniania   się   regularnego   zachowania   z   pozornie   całkowicie 

nieregularnych fluktuacji kwantowych, ponieważ nawet chaos podlega pewnym statystycznym 

prawidłowościom.  Zasadnicze  znaczenie  ma  to, że zdarzenia  kwantowe tworzą zespół, który 

możemy   obserwować,   natomiast   prawa   fizyki   i   warunki   początkowe   nie.   Czymś   innym   jest 

powiedzenie,  że każde ze zbioru chaotycznych  zdarzeń ma charakter czysto  przypadkowy,  a 

czymś   innym   byłoby   przypisywanie   tego   samego   procesowi   uporządkowanemu,   jak   prawo 

fizyki.   Dotychczas   podczas   tej   naszej   filozoficznej   wyprawy   zajmowałem   się   głównie 

rozumowaniami   logicznymi,   niewiele   miejsca   poświęcając   faktom   empirycznym   dotyczącym 

świata.   Dowód   on-tologiczny   i   kosmologiczny   same   w   sobie   mogą   jedynie   wskazywać   na 

istnienie bytu koniecznego, który pozostaje wciąż pojęciem mglistym i abstrakcyjnym. Jeśli taki 

byt istnieje, czy jesteśmy w stanie dowiedzieć się czegokolwiek o jego naturze na podstawie 

badań świata fizycznego? Pytanie to wprowadza nas w krąg problematyki planowego charakteru 

świata.

background image

Rozdział ósmy

ZAPROJEKTOWANY WSZECHŚWIAT

Ludzie zawsze byli pełni podziwu dla wyrafinowania, wspaniałości i misternej budowy 

świata   fizycznego.   Ciała   niebieskie   regularnie   przemierzające   firmament,   rytm   pór   roku, 

struktura płatka śniegu, niezliczone rzesze żywych stworzeń tak doskonale przystosowanych do 

swego otoczenia - wszystko to wydawało się zbyt uporządkowane, aby mogło być wyłącznie 

wynikiem   ślepego  przypadku.   Istnieje  powszechna  tendencja,  by  przypisywać   obecność  tego 

niezwykłego ładu w świecie celowemu działaniu jakiejś istoty nadprzyrodzonej.

Powstanie nauki przyczyniło się do odkrycia dalszych cudów przyrody, tak że obecnie 

poznaliśmy jej porządek od najgłębszych zakamarków atomu do najdalszych galaktyk. Nauka 

dostarcza jednak także racji dla tego porządku. Nie potrzebujemy już dla uzasadnienia struktury 

płatka śniegu czy też istnienia organizmów żywych odwoływać się do teologii. Prawa przyrody 

pozwalają na to, by materia i energia same z siebie organizowały się w złożone formy i układy, 

jakie widzimy wokół nas. Jakkolwiek przedwczesne byłoby twierdzenie, że naukowcy zrozumieli 

do końca istotę tej samoorganizacji, nie widać zasadniczych przeszkód, by, przy danych prawach 

fizyki,   wszystkie   znane   układy   fizyczne   nie   mogły   być   przekonywająco   przedstawione   jako 

wynik normalnych procesów fizycznych.

Niektórzy wyciągają stąd wniosek, że nauka obdarła Wszechświat z wszelkiej tajemnicy i 

celowości, a wewnętrzna złożoność świata fizycznego jest bądź to niezamierzonym przypadkiem, 

bądź   nieuniknioną   konsekwencją   bezdusznych   praw.   „Im   bardziej   Wszechświat   staje   się 

zrozumiały, tym bardziej widać, że nie ma on sensu” - uważa fizyk Steven Weinberg. Biolog 

Jacques   Monod   wtóruje   temu   ponuremu   stwierdzeniu:   „Dawne   przymierze   rozpadło   się; 

człowiek   uświadomił   sobie   w   końcu,   iż   stoi   samotnie   wobec   nieprzyjaznego   ogromu 

Wszechświata, z którego wyłonił się na zasadzie czystego przypadku. Jego przeznaczenie ani 

jego powinności nie są nigdzie określone”.

Jednak inni naukowcy wyciągają z tych samych faktów odmienne wnioski. Zgadzając się, 

że porządek przyrody da się wyjaśnić za pomocą praw fizyki wraz z odpowiednimi kosmicznymi 

warunkami początkowymi, uznają oni, że istnienie wielu z występujących we Wszechświecie 

złożonych  struktur i układów uwarunkowane jest szczególną postacią tych praw i warunków 

background image

początkowych. W niektórych przypadkach wiązało się to z tak dokładnym doborem, że nawet 

najmniejsza zmiana kształtu tych praw sprawiłaby, iż żadne struktury złożone by nie powstały. 

Dokładne   badania   wykazały,   iż   rzeczywiste   prawa   wyjątkowo   sprzyjają   ukształtowaniu   się 

bogatych i zróżnicowanych struktur. Jeśli chodzi o organizmy żywe, to ich istnienie związane jest 

z tak wielką liczbą  korzystnych  zbiegów  okoliczności,  że w opinii  niektórych  naukowców  i 

filozofów jest ona wręcz niewiarygodna.

background image

Jedność Wszechświata

Opinia typu  „zbyt  piękne, aby mogło być  prawdziwe” dotyczy kilku różnych faktów. 

Pierwszym z nich jest, że Wszechświat jest w ogóle uporządkowany. Równie dobrze mógłby być 

on przecież chaotyczny na nieskończenie wiele sposobów. Mogłyby w nim nie istnieć żadne 

prawa, bądź też mogłyby występować jedynie niespójne, luźne prawa, nie zapewniające żadnego 

porządku ani stabilności. Albo też Wszechświat mógłby być skrajnie prosty, wręcz bez wszelkich 

struktur,   w   którym   na   przykład   nie   występowałaby   materia   albo   ruch.   Można   sobie   także 

wyobrazić  Wszechświat,  w  którym  warunki  zmieniają  się nieustannie  w skomplikowany  lub 

chaotyczny sposób, bądź taki, w którym wszystko nagle przestaje istnieć. Wszystko wskazuje na 

to, że idea takich  niesfornych  wszechświatów jest w pełni logicznie dopuszczalna.  Niemniej 

realny Wszechświat taki nie jest. Jest w znacznym stopniu uporządkowany i występują w nim 

dobrze   określone   prawa   fizyki   i   wyraźne   związki   przyczynowo-skutkowe.   Prawa   te   działają 

niezawodnie.  By posłużyć  się sformułowaniem  Davida  Hume'a,  przyroda  biegnie  wciąż  tym 

samym jednostajnym trybem. Ten porządek przyczynowy nie wynika z logicznej konieczności; 

stanowi on syntetyczną  własność świata,  i to taką, dla której  możemy  słusznie domagać  się 

uzasadnienia.

Prawidłowości występujące  w fizycznym  świecie  nie mają  charakteru  arbitralnego;  w 

szczególny   sposób   układają   się   one   w   spójną   całość.   Jak   wyjaśniałem   w   rozdziale   5, 

Wszechświat   zawieszony   jest   pomiędzy   dwiema   skrajnościami:   prostymi   symetrycznymi 

strukturami   (jak   struktura   kryształu)   a   chaotycznymi   układami   złożonymi   (jak   w   przypadku 

cząsteczek   gazu).   Świat   jest   niewątpliwie   złożony,   lecz   jest   to   złożoność   uporządkowana. 

Posługując się technicznym określeniem, które wprowadziłem w rozdziale 5, można powiedzieć, 

że struktury Wszechświata mają „głębokość”. Ta głębokość nie występowała we Wszechświecie 

od samego początku, lecz kształtowała się później z pierwotnego chaosu w ciągu postępujących 

procesów samoorganizacji, w wyniku których powstawały coraz to bogatsze i bardziej złożone 

struktury. Nietrudno wyobrazić sobie świat, który, choć uporządkowany, nie zawierałby w sobie 

czynników i warunków umożliwiających rozbudowanie struktur w głąb.

O szczególności porządku fizycznego świata możemy mówić w jeszcze innym sensie. 

Chodzi o ogólną spójność i jedność przyrody oraz o sam fakt, że możemy w ogóle posługiwać się 

prawomocnie   pojęciem   „Wszechświata”   jako  obejmującym   wszystko,   co   istnieje.   W   świecie 

background image

występują wprawdzie pojedyncze elementy i układy, lecz ich struktura jest taka, że wszystkie 

razem tworzą jednolitą, spójną całość. Na przykład, oddziaływania w przyrodzie nie stanowią 

luźnego   zbioru   zasadniczo   odmiennych   sił,   lecz   wpasowują   się   w   jeden,   wzajemnie   się 

wspomagający,   system,   nadający   przyrodzie   stabilność   i   harmonię,   które   trudno   wyrazić 

matematycznie, lecz są one oczywiste dla każdego, kto zajmuje się nauką. Tę właśnie cechę 

świata starałem się uzmysłowić czytelnikowi poprzez analogię z krzyżówką.

Szczególnie zadziwiające jest, że parametry procesów zachodzących w skali mikroświata, 

powiedzmy w fizyce jądrowej, są tak dobrane, iż prowadzą do różnorodnych isotnych zjawisk w 

dużo większej skali, na przykład w astrofizyce. Tak więc przekonujemy się, że siła grawitacji 

wraz z termodynamicznymi i mechanicznymi własnościami wodoru pozwala na tworzenie się 

wiekiej   liczby   kuł   gazowych.   Kule   te   są   wystarczająco   duże,   by   w   ich   wnętrzu   zostały 

zapoczątkowane reakcje termojądrowe, lecz nie na tyle duże, by skolapsować od razu do stanu 

czarnej   dziury.   Tak   rodzą   się   stabilne   gwiazdy.   Wiele   dużych   gwiazd   kończy   swe   życie   w 

spektakularny sposób, wybuchając jako tak zwane supernowe. Siła wybuchu w znacznej mierze 

pochodzi od najbardziej nieuchwytnych cząstek elementarnych w przyrodzie - neutrin. Neutrina 

praktycznie nie oddziaływają fizycznie: przeciętne kosmiczne neutrino bez trudu przeniknęłoby 

przez warstwę ołowiu o grubości kilku lat świetlnych. A jednak te ulotne cząstki potrafią, w 

ekstremalnych warunkach panujących we wnętrzu umierającej gwiazdy, zebrać się w sobie na 

tyle,  by być  w stanie wyrzucić materię gwiazdową w przestrzeń. Szczątki te wykazują dużą 

zawartość ciężkich pierwiastków, takich, z jakich zbudowana jest Ziemia. Zatem istnienie planet 

podobnych   do   Ziemi,   wraz   z   całym   ich   bogactwem   form   i   układów,   przypisać   możemy 

własnościom   cząstki   elementarnej   tak   ulotnej,   że   mogłaby   nigdy   nie   zostać   odkryta.   Cykl 

ewolucji   gwiazd   dostarcza   jeszcze   jednego   przykładu   przemyślnego,   jak   gdyby   celowego, 

współdziałania zjawisk fizycznych w dużej i małej skali, zmierzającego do większej złożoności 

przyrody.

Oprócz   takich   ścisłych   związków   pomiędzy   różnymi   swymi   aspektami,   przyroda 

odznacza   się   zadziwiającą   jednorodnością.   Prawa   fizyki   odkryte   w   laboratorium   stosują   się 

równie   dobrze   do   atomów   w   odległych   galaktykach.   Elektrony   tworzące   obraz   na   ekranie 

naszych   telewizorów   mają   dokładnie   tę   samą   masę,   ładunek   i   moment   magnetyczny,   jak 

elektrony na Księżycu czy też na krańcu obserwowalnego Wszechświata. Ponadto własności te 

nie   wykazują   najmniejszych   zmian   w   czasie.   Na   przykład,   moment   magnetyczny   elektronu 

background image

potrafimy zmierzyć z dokładnością do dziesięciu miejsc po przecinku i mimo tak fantastycznej 

dokładności nie stwierdzono żadnej zmienności. Wiele wskazuje na to, że podstawowe własności 

materii nie zmieniają się, nawet w skali istnienia Wszechświata.

Oprócz   jednorodności   praw   fizyki   mamy   także   jednorodność   i   izotropowość 

przestrzennego rozkładu Wszechświata. W dużej skali, materia i energia rozłożone są wyjątkowo 

równomiernie, a Wszechświat wydaje się rozszerzać z tą samą szybkością w każdym miejscu i 

we wszystkich kierunkach. Oznacza to, że obserwator żyjący w innej galaktyce  widziałby w 

dużej   skali   ten   sam   obraz   Wszechświata   co   my.   Z   innymi   galaktykami   łączy   nas   wspólna 

kosmografia i wspólna historia. Jak pisałem w rozdziale 2, kosmologowie próbowali wyjaśnić tę 

jednorodność poprzez wprowadzenie tak zwanej hipotezy Wszechświata inflacyjnego, zgodnie z 

którą Wszechświat gwałtownie zwiększył swoje rozmiary krótko po powstaniu. Spowodowałoby 

to  wygładzenie  wszelkich  istniejących  początkowo nieregularności.  Warto  jednak zdać  sobie 

sprawę, że wyjaśnienie tej jednorodności za pomocą jakiegoś mechanizmu fizycznego w niczym 

nie umniejsza jej szczególnego charakteru, gdyż nadal możemy zadawać pytanie, dlaczego prawa 

przyrody   są   takie,   iż   ten   mechanizm   był   możliwy.   Ważne   jest   nie   tyle   to,   w   jaki   sposób 

Wszechświat osiągnął swą szczególną postać, lecz to, że jest właśnie taki, iż ją osiągnął.

I w końcu mamy jeszcze tak szeroko omawianą prostotę praw. Rozumiem przez to, że 

prawa te wyrażają się funkcjami prostymi pod względem matematycznym (jak proporcjonalność 

do odwrotności kwadratu odległości). I w tym przypadku możemy sobie wyobrazić światy, w 

których występują wprawdzie regularności, lecz są one tak bardzo skomplikowane, że można je 

opisać jedynie zawiłą kombinacją różnych matematycznych pojęć. Zarzut, że rozwijamy naszą 

matematykę właśnie w taki sposób, by pozwalała na prosty opis świata, rozpatrzyłem w rozdziale 

6. Osobiście uważam, że „niezrozumiała skuteczność” matematyki w opisywaniu rzeczywistości 

wskazuje   na   to,   iż   prawidłowości,   z   jakimi   mamy   do   czynienia   w   przyrodzie,   są   bardzo 

szczególnego rodzaju.

background image

Życie jest takie trudne

Próbowałem   wykazać,   że   istnienie   uporządkowanego,   spójnego   Wszechświata, 

zawierającego stabilne złożone struktury o wysokim stopniu wewnętrznej organizacji, wymaga 

praw i warunków bardzo szczególnego rodzaju. Wszystko wskazuje na to, że nasz Wszechświat 

jest nie tylko wszechświatem starym, lecz i takim, który jest specjalnie dostosowany, aby mogły 

w   nim   istnieć   pewne   obiekty   o   istotnym   znaczeniu   (np.   stabilne   gwiazdy).   W   rozdziale   7 

pokazywałem, jak Freeman Dyson i inni badacze nadali temu przypuszczeniu bardziej formalną 

postać zasady maksymalnego zróżnicowania.

Sytuacja   staje   się   jeszcze   bardziej   intrygująca,   jeżeli   weźmiemy   pod   uwagę   istnienie 

organizmów   żywych.   Fakt,   że   układy   biologiczne   wymagają   do   swego   rozwoju   bardzo 

szczególnych warunków i warunki te są na szczęście spełnione w przyrodzie, był komentowany 

bodajże od siedemnastego stulecia. Jednakże dopiero w dwudziestym wieku, wraz z rozwojem 

biochemii, genetyki i biologii molekularnej, można było potwierdzić to szczegółowo. Już w 1913 

roku wybitny biochemik z Harvardu Lawrence Ander-son pisał: „Własności materii i przebieg 

ewolucji   kosmosu   widziane   są   obecnie   jako   pozostające   w   bliskich   związkach   z   budową 

organizmów   żywych   i   ich   funkcjonowaniem;   (...)   biolog   ma   teraz   pełne   prawo   uważać,   że 

Wszechświat   w   istocie   swej   jest   biocentryczny”.   Henderson   doszedł   do   tego   zaskakującego 

wniosku na podstawie  swych  prac  nad regulacją  kwasowości i  alkaliczności  w organizmach 

żywych, obserwując sposób, w jaki regulacja ta istotnie zależy od dość szczególnych własności 

pewnych związków chemicznych. Duże wrażenie wywarła też na nim rola wody, z jej szeregiem 

anomalnych własności, w powstaniu i podtrzymywaniu życia. Gdyby te substancje nie istniały 

lub gdyby nie miały tych szczególnych własności, to życie (przynajmniej w znanej nam postaci) 

nie mogłoby się rozwinąć. Henderson uważał, że to „przystosowanie środowiska” do rozwoju 

życia jest zbyt znaczne, by można uznać je za sprawę przypadku, i starał się odgadnąć, jakiego 

typu prawa mogłyby uzasadniać takie dopasowanie.

W latach sześćdziesiątych astronom Fred Hoyle zwrócił uwagę, że węgiel, pierwiastek, 

którego własności chemiczne sprawiają, że jest on podstawą życia na Ziemi, produkowany jest z 

helu   we   wnętrzu   dużych   gwiazd,   a   następnie   ulega   stamtąd   wyrzuceniu   podczas   wybuchów 

supernowych, o których wspominałem w poprzednim podrozdziale. Gdy Hoyle badał reakcje 

jądrowe prowadzące do powstawania węgla w jądrach gwiazd, uderzył go fakt, że zasadnicza 

background image

reakcja zachodzi jedynie dzięki wyjątkowo szczęśliwemu zbiegowi okoliczności. Jądra węgla 

tworzą się w wyniku dość skomplikowanego procesu wymagającego jednoczesnego zderzenia 

trzech szybkich jąder helu, które potem pozostają już złączone. Wskutek tego, iż zderzenia trzech 

jąder są zdarzeniem rzadkim, reakcja może zachodzić z zadowalającą szybkością jedynie przy 

pewnych   określonych   wartościach   energii   (zwanych   „rezonansami”),   przy   których   szybkość 

reakcji ulega znacznemu zwiększeniu wskutek efektów kwantowych. Tak się szczęśliwie składa, 

że jeden z tych rezonansów odpowiada mniej więcej wartościom energii, jakie mają jądra helu 

we   wnętrzu   dużych   gwiazd.   Co   ciekawe,   Hoyle   nie   wiedział   wtedy   jeszcze   o   tym,   lecz 

przewidywał, że tak musi być, na podstawie faktu, iż węgiel jest w przyrodzie pierwiastkiem 

bardzo rozpowszechnionym. Eksperymenty wykazały potem, że miał rację. Dokładne badania 

ujawniły również inne „zbiegi okoliczności”, bez których ani produkcja, ani gromadzenie węgla 

wewnątrz gwiazd nie byłyby możliwe. Ten „monstrualny ciąg przypadków” wywarł na Hoyle'u 

takie wrażenie, że skłonił go do powiedzenia wręcz, że wygląda to tak, jak gdyby „prawa fizyki 

jądrowej zostały celowo zaprojektowane pod kątem konsekwencji, jakie wywołują we wnętrzach 

gwiazd”.   W   późniejszym   okresie   wielokrotnie   wyjaśniał,   że   Wszechświat   sprawia   wrażenie 

„podrasowanego”, jak gdyby ktoś coś „majstrował” przy prawach fizyki.

Powyższe przykłady są tylko jednymi z wielu. Od tego czasu zgromadzono już długą listę 

dalszych   „szczęśliwych   przypadków”   i   „zbiegów   okoliczności”.   Jest   ona   w   znacznej   części 

dziełem astrofizyków, Brandona Cartera, Bernarda Carra i Martina Reesa. Lista ta dostarcza 

przekonującego dowodu, że życie w znanych nam formach zależy bardzo istotnie od konkretnej 

postaci praw fizyki i od szeregu pozornie zupełnie przypadkowych zbieżności obranych przez 

przyrodę wartości mas niektórych cząstek, siły oddziaływania, i tak dalej. Ponieważ przykłady te 

zostały już wyczerpująco omówione w innych książkach, nie będę ich tutaj wyliczał. Powiem 

tylko, że gdybyśmy wczuli się w rolę Boga i chcieli regulować wartości tych wielkości według 

naszego uznania, ręcznie obracając mnóstwem pokręteł, szybko stwierdzilibyśmy, że przy prawie 

wszystkich   położeniach   pokręteł   otrzymalibyśmy   Wszechświat,   w   którym   życie   nie   byłoby 

możliwe. W niektórych przypadkach, jak się wydaje, wzajemne położenie pokręteł musiałoby 

zostać ustawione z ogromną dokładnością, aby doprowadzić do powstania życia. W swej książce 

Cosmic Coincidences [Kosmiczne przypadki] John Gribbin i Martin Rees konkludują: „Warunki 

panujące   w   naszym   Wszechświecie   naprawdę   wydają   się   być   jedynymi   odpowiednimi   dla 

rozwoju form życia takiego jak nasze”.

background image

Truizmem jest stwierdzenie, że możemy obserwować jedynie Wszechświat pozwalający 

na   istnienie   nas   samych.   Jak   już   wspominałem,   związek   pomiędzy   istnieniem   ludzkiego 

obserwatora a prawami i warunkami Wszechświata stał się znany pod dość niefortunną nazwą 

Zasady Antropicznej. W trywialnej, podanej powyżej formie Zasada Antropiczna nie stwierdza, 

że prawa fizyki są w jakikolwiek sposób zmuszone przez nasze istnienie do przybrania formy, 

jaką posiadają, ani też nie wynika z niej, iżby prawa fizyki zostały celowo zaprojektowane pod 

kątem ludzi. Z drugiej strony, to, że nawet najmniejsze zmiany w porządku rzeczy pozbawiłyby 

Wszechświat obserwatora, jest niewątpliwie faktem o ogromnym znaczeniu.

background image

Czy Wszechświat został zaprojektowany przez inteligentnego Stwórcę?

Już dawni filozofowie greccy uznawali, że ład i harmonia kosmosu wymaga uzasadnienia, 

lecz pogląd, że własności te są dziełem Stwórcy realizującego założony plan, ukształtował się w 

pełni   dopiero   z   nadejściem   ery   chrześcijańskiej.   W   trzynastym   wieku   Tomasz   z   Akwinu 

przedstawił   ideę,   że   ciała   w   przyrodzie   zachowują   się   tak,   jak   gdyby   były   prowadzone   ku 

określonemu celowi, „tak aby go jak najlepiej zrealizować”. Takie dopasowanie środków do celu 

zakłada - twierdził Akwinata - czyjąś intencję. Lecz skoro ciała nie są obdarzone świadomością, 

intencja   ta   nie   może   pochodzić   od   nich   samych.   „Zatem   istnieje   pewna   inteligentna   istota 

kierująca wszystkie rzeczy ku ich celom; istotę tę nazywamy Bogiem”.

Argument   Tomasza   z   Akwinu   upadł   w   siedemnastym   stuleciu   wraz   z   rozwojem 

mechaniki.   Prawa   Newtona   dostarczają   w   pełni   adekwatnego   wyjaśnienia   ruchu   ciał 

materialnych w kategoriach ich bezwładności i działających na nie sił, bez potrzeby odwoływania 

się do nadprzyrodzonej intencji. W tym czysto mechanicznym obrazie świata nie było miejsca na 

teleologię   (przyczyny   celowe).   Racji   określonego   zachowania   się   ciał   należy   upatrywać   w 

bezpośrednich przyczynach fizycznych, tzn. siłach działających na nie lokalnie ze strony innych 

ciał. Jednakże ta zmiana poglądów nie położyła całkowitego kresu idei, że świat musiał być 

celowo   zaprojektowany.   Sam   Newton,   jak   się   przekonaliśmy,   uważał,   że   Układ   Słoneczny 

wygląda   na   zbyt   wymyślny,   by   mógł   powstać   wyłącznie   w   wyniku   działania   ślepych   sił 

przyrody: „Ten przepiękny układ, obejmujący Słońce, planety i komety, mógł powstać jedynie za 

sprawą i pod przewodnictwem potężnej i inteligentnej Istoty”. Zatem nawet pozostając w ramach 

mechanistycznego obrazu świata, można być zaintrygowanym porządkiem rzeczy materialnych 

we   Wszechświecie.   Wielu   uczonym   nadal   trudno   było   przypuścić,   by   wyrafinowany   i 

harmonijny porządek przyrody mógł być wynikiem czystego przypadku.

Pogląd ten został wyartykułowany przez Roberta Boyle'a, tego od prawa Boyle'a:

Niezwykła   przemyślność   wspaniałej   konstrukcji   świata,   a   zwłaszcza   ciekawa   budowa 

organizmów   zwierzęcych,   funkcjonowanie   ich   aparatu   zmysłowego   i   innych   części   ciała, 

stanowiły podstawowe motywy skłaniające filozofów wszystkich epok i narodów do uznawania 

Istoty Boskiej za twórcę tych cudownych struktur.

Boyle  wprowadził  słynne  porównanie  świata  do mechanizmu  zegara,  które najpełniej 

wyraził  teolog William  Paley w osiemnastym  wieku. Wyobraźmy  sobie, dowodził  Paley,  że 

background image

„wędrujemy po pustkowiu” i nagle znajdujemy leżący na ziemi zegarek. Dokładnie go oglądając, 

stwierdzamy wymyślny charakter części jego mechanizmu i to, że są one ułożone tak, aby ze 

sobą współdziałając, służyły jakiemuś ogólnemu celowi. Nawet gdybyśmy nigdy w życiu nie 

widzieli zegarka i nie mieli pojęcia o jego działaniu, to na podstawie tego oglądu doszlibyśmy do 

wniosku, że jest to jakieś celowo zaprojektowane urządzenie. W dalszym ciągu swego wywodu 

Paley stwierdza, że kiedy widzimy jeszcze bardziej wymyślne konstrukcje przyrody, to wniosek 

ten powinien się nam narzucić tym bardziej.

Słabym  punktem  tego rozumowania  jest, co pokazał  Hume,  to, że  opiera się  ono na 

analogii. Pojmowany mechanistycznie Wszechświat przypomina zegarek; zegarek został przez 

kogoś wykonany, a zatem Wszechświat też musiał mieć swego stwórcę. Można by równie dobrze 

utrzymywać,   że   Wszechświat   przypomina   organizm   żywy,   a   zatem   musiał   się   rozwinąć   z 

zarodka w kosmicznym łonie! Oczywistym jest, że rozumując przez analogię nie można niczego 

dowieść. Co najwyżej analogia może służyć do poparcia jakiejś hipotezy. Stopień tego poparcia 

zależy od tego, na ile dana analogia zdolna jest kogoś przekonać. John Leslie pisał, że gdyby 

świat usłany był blokami granitu z wyrytym napisem MADE BY GOD, podobnie jak oznacza się 

producenta zegarka, to może nawet Hume'owie tego świata zostaliby przekonani. „Można zadać 

pytanie,   czy   każdy   możliwy   wyraźny   ślad   istnienia   boskiego   Stwórcy,   w   tym,   na   przykład, 

przesłanie wypisane w postaci struktur występujących w przyrodzie łańcuchów molekularnych 

(...)   można   lekką   ręką   odrzucać   z   komentarzem:   Ależ   nie   ma   w   tym   nic   szczególnego”. 

Niewykluczone, że w przyrodzie obecny jest wyraźny ślad Stwórcy, lecz jest w jakiś sposób 

przed   nami   ukryty.   Być   może   uda   nam   się   rozpoznać   „znak   firmowy”   boskiego   architekta 

dopiero   po   osiągnięciu   pewnego   poziomu   rozwoju   nauki.   Stanowi   to   motyw   powieści 

fantastycznonaukowej  Contact  astronoma  Carla Sagana, w  której  przesłanie  to jest misternie 

zakodowane w ciągu cyfr  rozwinięcia liczby n, liczby,  która jest istotnym  elementem  samej 

struktury Wszechświata, i może być odczytane wyłącznie przy użyciu zaawansowanych metod 

komputerowych.

Prawdą jest także, że nawet najbardziej racjonalni ludzie posługują się rozumowaniem 

przez   analogię   w   innych   przypadkach.   Jeden   z   nich   dotyczy   istnienia   w   ogóle   świata 

obiektywnego. W bezpośrednim doświadczeniu dany jest nam świat subiektywny, świat naszych 

doznań zmysłowych. Zazwyczaj uważamy ten świat za dość wierną kopię czy model obiektywnie 

istniejącego świata fizycznego i potrafimy odróżnić sen od rzeczywistości.  Jednak kopia lub 

background image

model to także rodzaj analogii i w tym przypadku bez oporów ją akceptujemy. Jeszcze większy 

element wiary zawarty jest we wnioskowaniu o istnieniu umysłów inne niż nasz. W naszym 

doświadczeniu  inni   ludzie  dani   są  nam  wyłącznie   poprzez  swe  ciała;   nie  mamy  możliwości 

postrzegać bezpośrednio ich umysłów. Nie ulega wątliwości, że inni ludzie zachowują się, jak 

gdyby ich umysł funkcjonował podobnie jak nasz, lecz nie możemy tego wiedzieć na pewno. 

Przekonanie o istnieniu innych umysłów opiera się całkowicie na analogii z naszymi własnymi 

doznaniami i zachowaniami.

Argument planowego charakteru świata nie może być zaklasyfikowany jako prawdziwy 

lub fałszywy, lecz jedynie jako mniej lub bardziej przekonujący. W jakim stopniu więc jest on 

przekonujący? Nikt z ludzi nauki nie poparłby obecnie Newtona w jego twierdzeniu, że Układ 

Słoneczny jest zbyt uporządkowany, aby mógł był powstać w sposób naturalny. Jakkolwiek nie 

udało się jeszcze rozstrzygnąć definitywnie, w jaki sposób powstał, znane są mechanizmy zdolne 

do nadania mu porządku, jaki w nim obserwujemy. Tym niemniej pełna struktura Wszechświata 

jawi się wielu astronomom jako zawierająca element celowego zaprojektowania. I tak James 

Jeans twierdził, że „projekt Wszechświata jest najwyraźniej dziełem matematyka” oraz że „w 

coraz większym stopniu przypomina on wielką myśl niż wielką maszynę”, pisząc również:

Odkrywamy,   że   Wszechświat   wykazuje   ślady   działalności   jakiegoś   czynnika 

projektującego czy też kierującego, który ma coś wspólnego z naszym ludzkim umysłem - nie, o 

ile nam na razie wiadomo, pod względem emocji, moralności lub poczucia piękna, lecz tendencji 

do myślenia w sposób, który, z braku lepszego słowa, można by określić jako matematyczny.

Odejdźmy na chwilę od astronomii. Najbardziej zdumiewające przykłady „przemyślności 

przyrody” można znaleźć w obrębie biologii, i to im właśnie Paley poświęcił najwięcej uwagi. 

Przystosowanie celowe w biologii jest wręcz legendarne. Weźmy, na przykład, oko. Doprawdy 

trudno sobie wyobrazić, aby miało ono być czymś innym niż narządem wzroku. Albo że skrzydła 

ptaka nie miały na celu funkcji latania. Dla Paleya i jemu podobnych takie misterne i skuteczne 

przystosowanie   było   wyrazem   celowego   działania   inteligentnego   Stwórcy.   Niestety,   jak 

wszystkim   wiadomo,   argument   ten   szybko   stracił   na   znaczeniu.   Teoria   ewolucji   Darwina 

wykazała   definitywnie,   że   zorganizowane   struktury   efektywnie   przystosowane   do   otoczenia 

mogą powstać w wyniku przypadkowych mutacji i doboru naturalnego. Nie jest potrzebny żaden 

stwórca, by powstało oko lub skrzydło. Narządy te rozwijają się w rezultacie zupełnie zwykłych 

procesów naturalnych. Triumfalistyczne nastroje, jakie wzbudziła ta rozstrzygająca koncepcja, 

background image

przedstawione są znakomicie w książce The Blind Watchmaker [Ślepy zegarmistrz] pióra biologa 

z Oxfordu Richarda Dawkinsa.

Surowa   krytyka,   z   jaką   spotkał   się   argument   planowego   charakteru   świata   ze   strony 

Hume'a, Darwina i innych, sprawiła, że został on prawie całkowicie porzucony przez teologów. 

Tym ciekawsze jest więc, że w ostatnich latach został on przywrócony do życia przez wielu 

naukowców.   W   swej   nowej   formie   dotyczy   nie   tyle   materialnej   zawartości   świata,   lecz 

rządzących nim praw, wobec czego dotychczasowe krytyki się do niej nie odnoszą. By pokazać, 

dlaczego,   pozwolę   sobie   najpierw   wyjaśnić,   na   czym   zasadniczo   polega   ewolucja   typu 

darwinowskiego. W swym założeniu teoria Darwina wymaga istnienia kolektywu, czyli zespołu 

podobnych   osobników,   wśród   których   może   się   dokonywać   dobór   naturalny.   Rozważmy   na 

przykład,   jak   doszło   do   tego,   że   polarne   niedźwiedzie   są   koloru   białego,   tak   doskonale 

zlewającego się ze śniegiem. Wyobraźmy sobie stado brunatnych niedźwiedzi polujących na żer 

na pokrytym śniegiem terytorium. Ich potencjalne ofiary z łatwością dostrzegają zbliżającego się 

drapieżnika i biorą nogi za pas. Brunatne niedźwiedzie wiodą ciężki żywot. Wtem, w wyniku 

genetycznego   przypadku,   rodzi   się   biały   niedźwiedź.   Bez   trudu   przychodzi   mu   zdobywanie 

pożywienia,   ponieważ   może   niezauważenie   podkraść   się   do   ofiary.   Żyje   on   dłużej   niż   jego 

brunatni pobratymcy i wśród jego potomstwa jest więcej białych osobników. Im również wiedzie 

się   lepiej,   więc   rodzi   się   jeszcze   więcej   białych   niedźwiedzi.   Wkrótce   mają   one   przewagę 

liczebną,   toteż   przechwytują   całą   zwierzynę,   doprowadzając   brunatne   niedźwiedzie   do 

wyginięcia.

Trudno sobie wyobrazić, aby powyższa historyjka była daleka od prawdy. Ale weźmy 

pod uwagę, jak istotne było, aby na początku było wiele niedźwiedzi. Jeden niedźwiedź w stadzie 

rodzi się biały, co daje mu przewagę nad innymi. Cała koncepcja opiera się na tym, że przyroda 

może dokonywać wyboru z zespołu podobnych, konkurujących ze sobą, osobników. Jednakże w 

przypadku praw fizyki i kosmologicznych warunków początkowych nie mamy takiego zespołu. 

Prawa i warunki początkowe naszego Wszechświata są jedyne w swoim rodzaju. (Kwestią, czy 

może istnieć wiele wszechświatów o odmiennych prawach, będę się jeszcze zajmował). Jeżeli 

powstanie   życia   wymaga,   aby   prawa   i   warunki   początkowe   były   dopasowane   z   dużą 

dokładnością,   i   takie   dopasowanie   faktycznie   ma   miejsce,   to   sugestia   planowego   początku 

wydaje się nieodparta.

Niemniej   zanim   wyciągniemy   taki   wniosek,   rozpatrzmy   wpierw   kilka   zarzutów.   Po 

background image

pierwsze, twierdzi się niekiedy,  że gdyby przyrodzie  nie udało się wytworzyć  warunków, w 

których   mogło   powstać   życie,   nie   byłoby   nas   i   nie   moglibyśmy   o  tym   dyskutować.   Jest   to 

oczywiście prawda, lecz nie jest to żaden kontrargument. Faktem jest, że jesteśmy tu, i to za 

sprawą dość szczególnych warunków, lecz samo nasze istnienie nie uzasadnia wystąpienia tych 

warunków. Można próbować załatwić sprawę stwierdzeniem, iż z pewnością mamy olbrzymie 

szczęście, że we Wszechświecie przypadkowo panują warunki sprzyjające rozwojowi życia, ale 

jest   to   tylko   uśmiech   losu,   bez   głębszego   znaczenia.   I   w   tym   przypadku   jest   to   kwestia 

indywidualnej  oceny.  Przypuśćmy,  że można  wykazać,  że życie  nie  byłoby możliwe,  gdyby 

stosunek masy elektronu do masy protonu odpowiadał z dokładnością 0,00000000001 procenta 

jakiejś zupełnie niezależnej liczbie - powiedzmy, wielokrotności stosunku gęstości wody i rtęci 

przy 18 stopniach Celsjusza. Nawet najbardziej zatwardziały sceptyk  zmuszony byłby wtedy 

przyznać, że „coś w tym jest”.

Ale jak ocenić, w jakim stopniu coś jest „nienaturalne”? Problem polega na tym, że nie 

znamy   sposobu,   w   jaki   można   by   wyznaczyć   wartości   prawdopodobieństwa   znanych   nam 

„zbiegów   okoliczności”.   Z   jakiego   zakresu   może   pochodzić,   powiedzmy,   wartość   siły 

oddziaływań   jądrowych   (od   której   zależą   na   przykład   wartości   energii   odpowiadające 

rezonansom   Hoyle'a)?   Jeśli   zakres   ten   jest   nieskończony,   to   prawdopodobieństwo   wybrania 

każdego   skończonego   zbioru   wartości   równa   się   zeru.   Ale   wtedy   trudno   byłoby   mówić,   iż 

wymogi powstania życia w jakimkolwiek stopniu tę wartość zmieniają. Stanowi to niewątpliwe 

reductio ad absurdum całego rozumowania. Potrzebna jest tu jakaś metateoria, teoria teorii, która 

pozwalałaby   na   wyznaczenie   wartości   prawdopodobieństwa   dla   danego   zakresu   wartości 

parametrów. Taka metateoria nie istnieje, a przynajmniej, o ile mi wiadomo, nikt jej dotychczas 

nie stworzył. Dopóki jej nie będzie, ocena stopnia „nienaturalności” danego stanu Wszechświata 

pozostaje sprawą czysto subiektywną. Niemniej jednak czujemy, że jest on nienaturalny!

Innym podnoszonym niekiedy zarzutem jest to, że w procesie ewolucji organizmy żywe 

dostosowują się do panujących warunków, nic więc dziwnego, że życie tak dobrze odpowiada 

tym warunkom. Może to być prawdą jedynie w odniesieniu do ogólnych parametrów środowiska, 

na przykład umiarkowanych zmian klimatycznych. Z pewnością byłoby błędem wskazanie na 

Ziemię i powiedzenie: „Spójrzcie, jak warunki sprzyjają tu życiu! Klimat jest właściwy, jest dużo 

tlenu i wody, a siła ciężkości odpowiada akurat długości kończyn, itd. itd. Co za niezwykła seria 

przypadków!”   Ziemia   jest   tylko   jedną   spośród   wielkiej   liczby   planet   położonych   w   naszej 

background image

Galaktyce   i   poza   nią.   Życie   może   powstać   tylko   na   tych   planetach,   gdzie   są   odpowiednie 

warunki. Gdyby Ziemia się do nich nie zaliczała, być może ta książka napisana zostałaby w 

jakiejś innej galaktyce. Ale nie chodzi nam teraz o coś tak zaściankowego, jak życie na Ziemi. 

Pytanie   brzmi:   jakie   muszą   być   spełnione   warunki,   aby   powstało   w   ogóle   życie   gdzieś   we 

Wszechświecie.   Jeśli   już   ono   powstanie,   to   w   nieunikniony   sposób   będzie   się   rozwijało   w 

miejscu, gdzie są po temu warunki.

Szczególny charakter, o jakim mówiłem, nie dotyczy tej czy innej niszy ekologicznej, 

lecz samych praw fizyki. Gdyby prawa te nie spełniały pewnych warunków, życie nie mogłoby w 

ogóle powstać. Z oczywistych względów nie istniałoby życie oparte na związkach węgla, gdyby 

nie   było   węgla.   Lecz   co   z   alternatywnymi   formami   życia,   tak   ulubionymi   przez   autorów 

fantastyki naukowej? I w tym przypadku, musimy przyznać, że po prostu nie wiemy. Gdyby 

prawa fizyki były nieco inne, może powstałyby inne możliwości rozwoju życia zamiast tych, 

które znamy. Sprzeciwia się temu ogólny pogląd, że organizmy biologiczne są tak szczególnymi 

układami, że nie mogłyby się pojawić w wyniku dowolnych praw i warunków. Jednakże, dopóki 

nie poznaliśmy należycie pochodzenia życia i nie są nam znane żadne jego alternatywne formy 

istniejące gdzieś we Wszechświecie, kwestia ta musi pozostać nie rozstrzygnięta.

background image

Mądrość przyrody

Powróćmy znów do słynnego powiedzenia Einsteina, że „Pan Bóg jest wyrafinowany, 

lecz nie perfidny” - pozwoli nam ono dostrzec jeszcze jeden intrygujący aspekt porządku świata. 

Einstein miał na myśli to, że poznanie przyrody wymaga wprawdzie znacznych umiejętności 

matematycznych, intuicji fizycznej i dużej pomysłowości, mimo to cel ten jest dla nas możliwy 

do   osiągnięcia.   Problematykę   tę   dyskutowałem   w   nieco   innym   ujęciu   w   rozdziale   6,   gdzie 

wskazałem   na   fakt,   że   świat   wydaje   się   być   zbudowany   w   ten   sposób,   że   jego   opis 

matematyczny, choć wcale nietrywialny, pozostaje w zasięgu umysłu człowieka.

Jak   już   raz   czy   dwa   wspominałem,   niezwykle   trudno   przekazać,   na   czym   polega 

wyrafinowanie matematycznego opisu przyrody, komuś nie obeznanemu z fizyką teoretyczną, 

jednakże naukowcy, którzy mieli do czynienia z tą dziedziną, doskonale wiedzą, o co chodzi. Jest 

ono   być   może   najbardziej   uderzające   w   fizyce   cząstek   elementarnych   i   teorii   pola,   które 

wymagają   jednoczesnego   stosowania   kilku   działów   matematyki   wyższej.   Wyrażając   rzecz 

możliwie najprościej: stosując matematykę w zwykły sposób dochodzimy do pewnego punktu i 

nagle opis się załamuje: pojawia się jakaś wewnętrzna sprzeczność lub też teoria daje wyniki 

drastycznie   nie   odpowiadające   rzeczywistości.   Wtedy   przychodzi   ktoś   sprytniejszy   od   nas   i 

wynajduje jakiś trik; znajduje, być może, jakąś ukrytą lukę w twierdzeniu albo elegancki sposób 

wyrażenia   danego   problemu   w   języku   całkiem   odmiennych   pojęć   matematycznych   i   proszę 

bardzo, wszystko pasuje! Trudno oprzeć się pokusie przypisania przyrodzie co najmniej równie 

wielkiej dozy sprytu, skoro potrafiła „zauważyć” to rozwiązanie i je wykorzystać. Często słyszy 

się   fizyków   teoretycznych,   którzy   we   właściwy   im   nieformalny,   bezceremonialny   sposób 

zachwalają   swoją   teorię   przy   użyciu   powiedzonka,   iż   jest   ona   tak 

sprytna/wyrafinowana/elegancka,   że   trudno   przypuścić,   aby   przyroda   nie   chciała   jej 

wykorzystać!

Pozwolę sobie zwięźle naszkicować jeden przykład. W rozdziale 7 omawiałem najnowsze 

próby unifikacji czterech podstawowych oddziaływań przyrody. Dlaczegóż przyroda miałaby się 

posługiwać   aż   czterema   odrębnymi   siłami?   Czyż   nie   byłoby   prostszym,   efektywniejszym   i 

bardziej eleganckim rozwiązaniem, gdybyśmy mieli trzy, dwie, a może nawet tylko jedną siłę, 

przejawiającą się pod czterema różnymi postaciami? Tak przynajmniej sądzili zaangażowani w te 

badania   fizycy,   poszukujący   podobieństw   pomiędzy   poszczególnymi   oddziaływaniami,   które 

background image

pozwoliłyby   na   znalezienie   jednego   wspólnego   opisu   matematycznego.   W   latach 

sześćdziesiątych okazało się, że można to będzie osiągnąć w przypadku elektromagnetyzmu i 

słabych oddziaływań jądrowych. Wiedziano, że oddziaływania elektromagnetyczne polegają na 

wymianie   cząstek   zwanych   „fotonami”.   Fotony   te,   śmigając   tam   i   z   powrotem   pomiędzy 

naładowanymi   elektrycznie   cząstkami,   na   przykład   elektronami,   powodują   powstanie 

działających na nie sił. Gdy widzimy przywieranie potartego balonu do sufitu czy też wzajemne 

przyciąganie i odpychanie magnesów, to obserwujemy właśnie skutki niewidzialnej pracy tych 

niestrudzonych cząstek. Możemy sobie wyobrażać, że fotony te pełnią jak gdyby rolę posłańców, 

które powiadamiają jedne cząstki o sile działającej na nie ze strony innych cząstek, a te z kolei w 

ten sam sposób odpowiadają.

Otóż   teoretycy   doszli   do   przekonania,   że   coś   podobnego   zachodzi   w   przypadku 

oddziaływań słabych w jądrach atomowych. Wynaleziono hipotetyczną cząstkę, nazwana dość 

tajemniczo   cząstką   W,   która   miałaby   odgrywać   rolę   pośrednika,   analogicznie   jak   fotony. 

Jednakże, w przeciwieństwie do fotonów, które były dobrze znane w laboratorium, nikt nigdy nie 

widział cząstki W, więc można było opierać się wyłącznie na matematyce. Teorię oddziaływań 

słabych   przeformułowano   tak,   aby   uwydatnić   jej   zasadnicze   podobieństwo   do 

elektromagnetyzmu. Idea była taka, że jeżeli mamy dwa zbliżone opisy matematyczne, to można 

je ze sobą połączyć  w jeden jednolity opis. Przeformułowanie to obejmowało wprowadzenie 

jeszcze jednej cząstki pośredniczącej, nazwanej cząstką Z, która przypomina foton w jeszcze 

większym   stopniu   niż   cząstka   W.   Problem   polegał   na   tym,   że   nawet   w   tym   nowym 

sformułowaniu oba opisy - teoria elektromagnetyzmu i oddziaływań słabych - nadal cechowała 

pewna   zasadnicza   różnica.   Mimo   wielu   podobieństw   cząstek   Z   do   fotonów   ich   masy   były 

krańcowo odmienne. Powodem było to, że masa cząstki pośredniczącej wiąże się bezpośrednio z 

zasięgiem   danego   oddziaływania:   im   krótszy   zasięg,   tym   większa   masa   cząstek.   Zasięg   sił 

elektromagnetycznych jest nieskończony, co wymaga, aby pośrednicząca w nich cząstka miała 

masę  równą  zeru, podczas  gdy zasięg oddziaływań  słabych  nie  przekracza  rozmiarów  jądra, 

wskutek czego pośredniczące cząstki muszą mieć masę bardzo dużą, rzędu mas całych atomów.

Kilka słów trzeba poświęcić faktowi zerowej masy fotonu. Masa cząstki wiąże się z jej 

bezwładnością.   Im   mniejsza   masa,   tym   mniejsza   bezwładność   cząstki   i   tym   większego 

przyśpieszenia doznaje ona pod wpływem działającej na nią siły. Gdy dane ciało ma bardzo małą 

masę, to dany impuls siły nada mu bardzo dużą prędkość. Jeśli wyobrazimy sobie cząstki o coraz 

background image

to mniejszej masie, to prędkość ta będzie coraz większa. Można by sądzić, że cząstka o zerowej 

masie będzie poruszać się nieskończenie szybko, ale tak nie jest. Teoria względności zabrania, by 

cokolwiek poruszało się z prędkością przewyższającą prędkość światła, a zatem cząstki o masie 

zerowej poruszają się z prędkością światła. Fotony, jako „cząstki światła”, są tu oczywistym 

przykładem.   Natomiast   z   obliczeń   wynikało,   że   cząstki   W   i   Z   powinny   mieć   masy   równe 

odpowiednio   osiemdziesięciu   i   dziewięćdziesięciu   masom   protonu,   najcięższej   ze   znanych 

trwałych cząstek.

Problem, przed jakim stanęli teoretycy w latach sześćdziesiątych, polegał na tym, w jaki 

sposób   połączyć   z   sobą   eleganckie   pod   względem   matematycznym   opisy   oddziaływań 

elektromagnetycznych i słabych, skoro różnią się one od siebie jednym tak istotnym szczegółem. 

Przełom nastąpił w roku 1967. W oparciu o aparat matematyczny, rozwinięty wcześniej przez 

Sheldona Glashowa, dwaj fizycy teoretyczni, Abdus Salam i Steven Weinberg, niezależnie od 

siebie,   znaleźli   wyjście   z   syluacji.   Zasadnicza   myśl   była   następująca.   Przypuśćmy,   że   duże 

wartości masy cząstek W i Z nie są ich własnością pierwotną, lecz zostały nabyte w wyniku 

jakiegoś oddziaływania zewnętrznego; to znaczy, przypuśćmy, że cząstki te nie posiadają, że się 

tak   wyrażę,   masy   wrodzonej,  lecz   „niosą”   ją   ze   sobą.  Ta   różnica,   choć   może   wydawać   się 

drobna, jest niezwykle istotna. Oznacza bowiem, że masa nie jest kwestią teorii fizycznej, lecz 

konkretnego stanu, w jakim normalnie się te cząstki znajdują. Posłużę się analogią, aby to bliżej 

wyjaśnić.   Gdy   ustawimy   ołówek   pionowo   na   ostrym   końcu   i   puścimy,   przewróci   się   on, 

układając w pewnym kierunku. Powiedzmy, że będzie wskazywał na północny wschód. Stan ten 

został   osiągnięty   pod   wpływem   sił   ciążenia   ziemskiego,   lecz   „północny   wschód”   nie   jest 

bynajmniej wewnętrzną cechą grawitacji. Siły ciążenia niewątpliwie wyróżniają kierunek góra-

dół, ale nie północ-południe, wschód-zachód, ani żaden kierunek pośredni. Z punktu widzenia 

grawitacji wszystkie kierunki w poziomie są równoważne. Zatem ułożenie ołówka na północny 

wschód   jest   jedynie   przypadkową   cechą   układu   ołówek   +   siła   ciężkości,   związaną   ze 

szczególnym stanem, w jakim akurat znalazł się ołówek.

W przypadku cząstek W i Z rolę grawitacji odgrywa hipotetyczne nowe pole, zwane 

polem Higgsa, od nazwiska Petera Higgsa z University of Edinburgh. Pole Higgsa działając na W 

i Z powoduje ich „przewrócenie” w sensie symbolicznym.  W wyniku tego nie otrzymujemy 

„północnego wschodu”, lecz masę, i to dużą. Zostaje w ten sposób otwarta droga do unifikacji z 

elektromagnetyzmem, jako że cząstki W i Z teraz „naprawdę” nie posiadają masy, podobnie jak 

background image

foton. Dwa matematyczne opisy można teraz z sobą połączyć, otrzymując jednolitą teorię, w 

której występuje tylko jedno „elektrosłabe” oddziaływanie.

Reszta, jak to się mówi, jest historią. Na początku lat osiemdziesiątych w akceleratorach 

Europejskiego Ośrodka Badań Jądrowych (CERN) pod Genewą udało się w końcu otrzymać 

cząstki   W,   a   następnie   Z.   Teoria   zyskała   w   ten   sposób   wspaniałe   potwierdzenie.   Dwa   z 

występujących   w   przyrodzie   oddziaływań   okazały   się   być   naprawdę   dwoma   obliczami   tego 

samego oddziaływania. Najwidoczniej przyroda dostrzegła także lukę w rozumowaniu, że nie 

można utożsamić cząstek o masie zerowej i niezerowej - jest to możliwe, gdy wykorzysta się 

mechanizm Higgsa.

Historia ta ma jeszcze ciąg dalszy. Z polem Higgsa, które odgrywa tu tak znaczącą rolę, 

stowarzyszona jest z kolei cząstka nazwana „bozonem Higgsa”. Posiada ona przypuszczalnie 

bardzo dużą masę, co oznacza, że do jej wytworzenia potrzebna jest bardzo duża energia. Do tej 

pory nikomu nie udało się zaobserwować bozonu Higgsa, lecz jest on na czele listy cząstek 

oczekujących na odkrycie. Jej wytworzenie będzie jednym z podstawowych zadań planowanego 

nowego gigantycznego akceleratora, który ma być zbudowany na pustkowiach Teksasu w drugiej 

połowie   lat   dziewięćdziesiątych.   Znane   pod   nazwą   SSC  (Superconducting   Supercollider)  to 

monstrualne urządzenie o obwodzie około osiemdziesięciu kilometrów umożliwi przyśpieszanie 

protonów  i   antyprotonów  do  nieosiągalnych   dotąd  energii.   Przeciwbieżne  strumienie   cząstek 

będą zderzać się ze sobą, przez co uzyska się zderzenia o niespotykanej gwałtowności. Istnieje 

nadzieja, że SSC pozwoli na skumulowanie energii wystarczającej na wytworzenie bozonu Hig-

gsa.   Lecz   w   wyścigu   tym   oprócz   Amerykanów   biorą   udział   także   Europejczycy,   którzy 

spodziewają się, że uda im się uzyskać bozon Higgsa w którymś  z akceleratorów  w CERN. 

Dopóki   się   go   nie   odkryje,   nie   możemy   być   pewni,   czy   przyroda   faktycznie   korzysta   z 

mechanizmu Higgsa. Być może znalazła jakiś jeszcze sprytniejszy sposób. Pozostaje w napięciu 

oczekiwać na finał tej historii.

background image

Miejsce na wszystko i wszystko na swoim miejscu

Gdy naukowcy mówią o czymś: „dlaczego przyroda miałaby sobie zadawać tyle trudu?”, 

czy  też:   „po   co  to   jest?”,   zdają  się   przypisywać   przyrodzie   inteligencję.   Jakkolwiek   zwykle 

pytania   takie   wypowiadane   są   nieco   żartobliwie,   mają   one   również   podtekst   poważny. 

Doświadczenie wykazało, że przyroda podziela nasze pojęcia oszczędności, efektywności, piękna 

i wyrafinowania matematycznego, a zatem kierowanie się nimi w badaniach naukowych daje 

bardzo dobre wyniki (jak w przypadku unifikacji oddziaływań słabych i elektromagnetycznych). 

Większość fizyków uważa, że pod zewnętrzną złożonością ich dyscypliny kryje się elegancka 

wszechogarniająca   jedność   i   że   postęp   w   fizyce   polega   na   wykrywaniu   matematycznych 

„sztuczek”,   które   pozwoliły   przyrodzie   wygenerować   nietrywialnie   zróżnicowany   i   złożony 

Wszechświat z tej fundamentalnej prostoty.

Istnieje na przykład wśród fizyków niewyrażane, lecz dość powszechne przekonanie, że 

wszystko,   co   istnieje   w   przyrodzie,   musi   mieć   „miejsce”,   czy   też   rolę,   w   ramach   pewnej 

ogólniejszej całości, że przyroda  nie pozwala sobie na rozrzutność poprzez tworzenie  bytów 

przypadkowych;  że nie jest ona arbitralna. Każdy element rzeczywistości fizycznej  powinien 

łączyć się z innymi w „naturalny” i logiczny sposób. Zatem, kiedy w 1937 roku odkryto cząstkę 

elementarną nazwaną potem mionem, fizyk Isidor Rabi wykrzyknął ze zdumienia: „Czy ktoś to 

zamawiał?” Mion jest cząstką praktycznie identyczną z elektronem pod wszystkimi względami, 

lecz o 206,8 razy większej masie. Ten większy brat elektronu jest nietrwały i w ciągu jednej lub 

dwóch   mikrosekund   ulega   rozpadowi,   nie   stanowi   zatem   stałego   składnika   materii.   Tym 

niemniej, wszystko wskazuje na to, ze jest on samodzielną cząstką elementarną, a nie złożeniem 

innych cząstek. Reakcja Rabiego jest charakterystyczna. Po co istnieje taki mion'? Do czego 

przyrodzie potrzebny jest jeszcze jeden gatunek elektronów, i to tak nietrwały? Jaką sprawiłoby 

różnicę, gdyby mion wogóle me istniał?

Od   tego   czasu   cały   problem   się   jeszcze   bardziej   skomplikował.   Wiemy   teraz,   że 

większych braci jest dwóch. Drugi z nich, odkryty w 1974 roku, nazwany został „taonem”. Co 

gorsza, okazuje się, ze inne cząstki również mają niestabilnych większych braci. Każdy z tak 

zwanych kwarków - cegiełek składowych materii jądrowej, jak protony i neutrony - występuje w 

dwóch   cięższych   wariantach.   Mamy   także   trzy   rodzaje   neutrin.   Sytuacja   przedstawiona   jest 

schematycznie w Tabeli l. Wydaje się, ze wszystkie znane cząstki elementarne można podzielić 

background image

na trzy „generacje” Do pierwszej generacji zaliczają się elektron, neutrino elektronowe i dwa 

kwarki, zwane „górnym” i „dolnym”, z których składają się protony i neutrony Cząstki pierwszej 

generacji   są   zasadniczo   trwałe   i   stanowią   podstawowy   składnik   widzialnego   Wszechświata 

Zarówno atomy naszego ciała, jak i te wchodzące w skład Słońca i gwiazd, zbudowane są z 

cząstek pierwszej generacji.

TABELA l

 Leptony Kwarki

Pierwsza generacja elektron „dolny”

 neutrino elektronowe „górny”

Druga generacja mion , dziwny”

 neutrino mionowe „powabny”

Trzecia generacja taon „piękny”

 neutrino taonowe ,,top”

 

Materia zbudowana jest z dwunastu podstawowych typów cząstek Sześć z nich, zwanych 

„leptonami” , jest dość lekka i uczestniczy jedynie w oddziaływaniach słabych. Pozostałych sześć 

zwanych „kwarkami” , ma dużą masę i wchodzi w oddziaływania silne tworząc cząstki składowe 

jąder atomowych.  Wszystkie  te cząstki  można  uporządkować w  trzy generacje o zbliżonych 

własnościach.

  Druga generacja wydaje się mniej  więcej powtórzeniem pierwszej. Znajdujemy tutaj 

mion, który tak zdumiał Rabiego. Cząstki te (być może z wyjątkiem neutrino) są nietrwałe i 

rozpadają się po krótkim czasie na cząstki pierwszej generacji. I oto, ni stąd m zowąd, przyroda 

jeszcze raz powtarza to wszystko w postaci trzeciej generacji. Można się zastanawiać, czy na tym 

już koniec. Być może liczba generacji jest nieskończona i mamy do czynienia z jakąś prostą 

strukturą powtarzalną. Fizycy w większości są odmiennego zdania. W 1989 roku w CERN użyto 

nowego akceleratora cząstek do dokładnego prześledzenia rozpadu cząstki Z. Otóż Z rozpada się 

na neutrina, a szybkość tego procesu wyznaczona jest przez liczbę odrębnych rodzajów neutrin 

background image

występujących w przyrodzie, a zatem dokładny pomiar tej szybkości może służyć do określenia 

tej   liczby.   Otrzymano   liczbę   trzy,   co   oznaczałoby,   ze   mamy   do   czynienia   jedynie   z   trzema 

generacjami cząstek.

Stajemy   zatem   przed   zagadką   dlaczego   trzy?   Jedna   lub   nieskończenie   wiele   byłoby 

„naturalne”, lecz trzy wydaje się czystą perwersją. Owa „zagadka generacji” dostarczyła impulsu 

do wielu istotnych prac teoretycznych. Największego postępu w fizyce cząstek elementarnych 

dokonano dzięki zastosowaniu działu matematyki zwanego „teorią grup”. Wiąże się to silnie z 

zagadnieniem   symetrii,   jednej   z   „ulubionych”   własności   przyrody.   Teoria   grup   pozwala   na 

połączenie   pozornie   odrębnych   cząstek   w   jednolite   rodziny.   Istnieją   określone   reguły 

matematyczne przedstawiania grup i łączenia ich ze sobą, a także określające, ile cząstek każdego 

typu   może   wchodzić   w   skład   grupy.   Naukowcy   mają   nadzieję   na   uzyskanie   opisu 

teonogrupowego uzasadnionego niezależnie, który również zawierałby trzy generacje cząstek. 

Pozorna   rozrzutność   przyrody   okazałaby   się   wtedy   konieczną   konsekwencją   jakiejś   głębszej 

symetrii.

Oczywiście,   dopóki   nie   uda   się   dokonać   takiej   unifikacji,   istnienie   trzech   generacji 

stanowi kontrprzykład dla tezy, ze przyrodę cechuje wyrafinowana oszczędność, a nie złośliwa 

arbitralność. Jestem jednak tak pewny, ze przyroda podziela nasze poczucie oszczędności, iż 

chętnie ręczę własną głową, że problem ten zostanie rozwiązany w najbliższych dziesięcioleciach 

i że rozwiązanie to będzie stanowiło kolejny dobitny dowód, iż przyroda stosuje się jednak do 

zasady „Miejsce na wszystko i wszystko na swoim miejscu”.

Cała sprawa z generacjami cząstek ma jeszcze jeden interesujący aspekt, który potwierdza 

moją tezę. Przyznaję, ze Tabela l nie jest do końca prawdziwa. Gdy piszę tę książkę, istnienie 

kwarka „top” nie zostało jeszcze ostatecznie potwierdzone. Kilka razy był on już wprawdzie 

„odkrywany”, lecz wiadomość ta była potem dementowana. Otóż można by się zastanawiać, skąd 

fizycy czerpią taką pewność, że kwark „top” istnieje, iż skłonni są poświęcać znaczną część 

skąpych środków na badania, jakie mają do dyspozycji, na jego poszukiwania. A jeśli on w ogóle 

nie istnieje? Może jednak w tabeli (która w końcu została tylko wymyślona przez ludzi) jest puste 

miejsce, i tak naprawdę to nie mamy wcale trzech generacji cząstek, lecz dwie i trzy czwarte? 

Cóż, ciężko byłoby znaleźć fizyka, który sądziłby, iż przyroda mogłaby być tak złośliwa, i kiedy 

kwark   „top”   zostanie   odkryty   (a   nie   mam   żadnych   wątpliwości,   że   to   prędzej   czy   później 

nastąpi), będzie on kolejnym przykładem, że przyroda nie dopuszcza nieporządku.

background image

Problem   generacji   stanowi   w   istocie   część   szerszego   problemu   unifikacji,   o   którym 

wspominałem, a z którym potyka się cała armia teoretyków. John Polkinghorne, który zanim 

wstąpił do stanu duchownego, zajmował się teorią cząstek elementarnych, opisuje pewność, jaką 

fizycy pokładają w następnym etapie programu unifikacji:

Moi   niegdysiejsi   koledzy   zadają   sobie   wiele   trudu,   usiłując   stworzyć   teorię   jeszcze 

bardziej ogólną. (...) Rzekłbym, iż obecnie ich wyniki mają w sobie element sztuczności, bądź 

wręcz desperacji. Jakiś podstawowy fakt, czy też idea, ciągle nie jest dostrzegany.  Niemniej 

jednak nie wątpię, że w swoim czasie uda się wniknąć w głąb rzeczy i odkryć głębszą strukturę 

leżącą u podstaw fizycznej rzeczywistości.

Jak już wspominałem, aktualnie modna jest tak zwana teoria superstrun, lecz niewątpliwie 

wkrótce pojawi się coś innego. Jakkolwiek przed fizykami piętrzą się olbrzymie trudności, w 

pełni zgadzam się z Polkinghornem. Nie mogę uwierzyć, że problemy te miałyby być z natury 

nierozwiązywalne   i   że   unifikacja   fizyki   cząstek   jest   celem   niemożliwym   do   osiągnięcia. 

Wszystkie znaki na niebie i ziemi wskazują, że pod powierzchnią zjawisk kryje się jedność, a nie 

arbitralność,  niezależnie  od  tego,  ile  jeszcze   będziemy   musieli   drapać  się  po głowie,  aby  ją 

odkryć.

Na zakończenie rozważań, czy faktycznie „potrzeba” tylu rodzajów cząstek, przychodzi 

mi   do   głowy   ciekawa   myśl.   Miony,   jakkolwiek   nie   wchodzą   w   skład   normalnej   materii, 

odgrywają jednak w przyrodzie dość istotną rolę. Znaczna część promieniowania kosmicznego, 

które   dociera   do   powierzchni   Ziemi,   to   właśnie   miony.   Stanowią   one   część   normalnego   tła 

promieniowania, przyczyniając się do powstawania mutacji, które są siłą napędową ewolucji 

biologicznej. Zatem, przynajmniej do pewnego stopnia, miony znajdują zastosowanie w biologii. 

Stanowi to kolejny przykład tak szczęśliwego dla nas dopasowania elementów Wszechświata w 

dużej i małej skali, o którym wspominałem wcześniej w tym rozdziale.

background image

Czy potrzebny jest Stwórca?

Mam   nadzieję,  że   niniejsza  dyskusja  pozwoli   przekonać   czytelnika,   że  świat  nie   jest 

bezładną zbieraniną obiektów i sił, lecz niezwykle pomysłową, jednolitą strukturą matematyczną. 

Słowa   takie   jak   „pomysłowy”   lub   „sprytny”   niezaprzeczalnie   odnoszą   się   do   działalności 

człowieka, a pomimo to nieodparcie nasuwają się w odniesieniu do przyrody. Czy jest to tylko 

jeszcze jeden przykład narzucania przyrodzie naszych własnych kategorii myślowych, czy też 

odzwierciedla się w tym jakaś istotna głęboka właściwość świata?

Odeszliśmy już dość daleko od paleyowskiej wizji świata jako zegarka. Posługując się raz 

jeszcze   moją   ulubioną   analogią,   można   powiedzieć,   że   świat   fizyki   cząstek   elementarnych 

przypomina   bardziej   krzyżówkę   niż   mechanizm   zegarka.   Każde   nowe   odkrycie   stanowi 

wskazówkę   pozwalającą   odkryć   jakieś   nowe   elementy   matematycznej   struktury.   W   miarę 

gromadzenia się odkryć, coraz więcej tych krzyżujących się powiązań „wypełnia się” i zaczynają 

wyłaniać się zarysy całej struktury. W chwili obecnej w „krzyżówce” tej pozostaje jeszcze wiele 

pustych   miejsc,   niemniej   da   się   już   zauważyć,   jak   bardzo   jest   ona   misterna   i   spójna.   W 

odróżnieniu od mechanizmu, który może jedynie powoli z czasem zmierzać w kierunku form o 

większym stopniu złożoności i organizacji, „krzyżówka” fizyki cząstek jest gotowa od razu w 

całości. Powiązania nie powstają, lecz istnieją przez cały czas, ukryte w prawach. Musimy je po 

prostu bądź przyjąć jako zdumiewające nagie fakty, bądź też poszukiwać dla nich głębszego 

uzasadnienia.

Zgodnie z myślą chrześcijańską tym głębszym uzasadnieniem jest Bóg, który stworzył 

świat w całym jego bogactwie i złożoności, a zadaniem fizyki jest odkrywanie szczegółów tego 

Bożego zamysłu.  Gdybyśmy  się na to zgodzili,  następnym  pytaniem jest: jaki cel  miał  Bóg 

stwarzając świat w ten sposób? Aby odpowiedzień na to pytanie, musimy wziąć pod uwagę 

wszystkie   „zbiegi   okoliczności”   wspomniane   wcześniej   w   związku   z   zasadą   antropiczną   i 

warunkami   występowania   organizmów   żywych.   Wyraźne   „dopasowanie”   praw   przyrody, 

niezbędne,   aby   we   Wszechświecie   mogły   zrodzić   się   i   przetrwać   istoty   żywe   obdarzone 

świadomością, stwarza wyraźną sugestię, iż to właśnie Bóg tak zaprojektował Wszechświat, by 

możliwe   było   powstanie   życia   i   świadomości.   Oznaczałoby   to,   że   istnienie   nas   samych   we 

Wszechświecie stanowi zasadniczą część stwórczego planu Boga.

Lecz czy istnienie planu w konieczny sposób zakłada istnienie jego twórcy? John Leslie 

background image

argumentuje, że tak nie jest. Jak pamiętamy, w jego teorii stworzenia świat powstał w wyniku 

„wymogu   etycznego”.   Pisze   on:   „Świat   istniejący   w   wyniku   etycznej   potrzeby   mógłby   być 

dokładnie taki sam, równie obfitujący w dowody działalności planowej, niezależnie od tego, czy 

potrzeba ta wymagała do swego urzeczywistnienia stwórczych aktów ukierunkowanej na dobro 

inteligentnej istoty, czy też nie”. Krótko mówiąc, świat zrodzony przez dobro może jawić się nam 

jako planowy, nawet jeżeli faktycznie taki nie jest.

W   książce  The   Cosmic   Blueprint  pisałem,   że   świat   wygląda,   jak   gdyby   rozwijał   się 

według jakiegoś planu lub projektu. Idea ta jest (fragmentarycznie) wyrażona w schematyczny 

sposób na rysunku 12, gdzie rolę projektu (czy też kosmicznego programu komputerowego, jak 

kto woli) odgrywają prawa fizyki, wyobrażone w postaci maszynki do mięsa. Na wejściu mamy 

kosmiczne   warunki   początkowe,   a   na   wyjściu   zorganizowane   struktury   złożone,   czyli 

rozbudowanie w głąb. Inna wersja tego schematu pokazana jest na rysunku 13, gdzie na wejściu 

mamy materię, a na wyjściu umysł. Zasadniczą myślą jest, że coś wartościowego powstaje w 

wyniku przetwarzania według pewnego z góry określonego zbioru reguł. Reguły te wyglądają, 

jak gdyby były dziełem istoty inteligentnej. Nie widzę, jak ktoś mógłby temu przeczyć. To, czy 

się   wierzy,   że   zostały   one   naprawdę   zaplanowane   celowo,   a   jeśli   tak,   to   przez   kogo,   musi 

pozostać już sprawą indywidualnych preferencji. Osobiście skłaniam się do przypuszczenia, że 

własności takie, jak przemyślność, oszczędność środków, piękno itp., mają naprawdę charakter 

trancendentny - nie są one wyłącznie wytworem ludzkim - i że własności te odzwierciedlają się w 

strukturze świata. Czy te własności są w stanie same z siebie powołać świat do istnienia, tego nie 

wiem.   Gdyby   tak   było,   można   by   uważać   Boga   wyłącznie   za   mityczną   personifikację   tych 

własności stwórczych, a nie niezależny czynnik sprawczy. Jasne jest, że nie zadowoliłoby to 

nikogo, kto uważa, że Bóg jest stroną relacji międzyosobowej.

 

background image

Wielokrotna rzeczywistość

Niewątpliwie najpoważniejszym wyzwaniem dla tezy o planowym charakterze świata jest 

alternatywna hipoteza wielu światów, czyli wielokrotnej rzeczywistości. Mówiłem już o tej teorii 

w rozdziale 7 przy okazji omawiania kosmologicznego dowodu istnienia Boga. Zasadnicza jej 

idea  polega  na tym,  że świat,  jaki  widzimy,  jest tylko  jednym  z wielkiej  liczby  światów, a 

przyczyną tego, że nasz konkretny świat wygląda na zaplanowany, jest to, iż tylko w światach o 

stosunkowo wymyślnej postaci może dojść do powstania życia (a tym samym świadomości). Nic 

zatem dziwnego, że znajdujemy się w świecie tak sprzyjającym biologicznemu życiu. Został on 

po prostu „wybrany antropicznie”.

Musimy wpierw zadać pytanie, czy dysponujemy jakimikolwiek dowodami na istnienie 

tych innych światów. Filozof George Gale sporządził listę kilku teorii fizycznych, które w ten 

czy   inny   sposób   sugerują   istnienie   wielości   światów.   Najczęściej   koncepcja   wielu   światów 

pojawia   się   w   kontekście   interpretacji   mechaniki   kwantowej.   Aby   zobaczyć,   w   jaki   sposób 

kwantowa nieoznaczoność prowadzi do możliwości, że istnieje więcej niż jeden świat, rozważmy 

prosty   przykład.   Wyobraźmy   sobie   pojedynczy   elektron   w   polu   magnetycznym.   Posiada   on 

wewnętrzny moment magnetyczny, zwany spinem. Możemy wyznaczyć energię oddziaływania 

spinu   z   zewnętrznym   polem   magnetycznym;   energia   ta   będzie   zależała   od   kąta   pomiędzy 

kierunkiem   przyłożonego   pola   magnetycznego   a   kierunkiem   własnego   pola   magnetycznego 

elektronu. Jeśli kierunki te są zgodne, energia ta będzie niska; jeśli przeciwne - wysoka; a dla 

kątów pośrednich powinna przyjmować wartości pośrednie. Pomiar tej energii pozwala zatem na 

efektywne wyznaczenie orientacji spinu elektronu. Okazuje się, i jest to jeden z podstawowych 

faktów   mechaniki   kwantowej,   że   obserwuje   się   tylko   dwie   wartości   energii,   odpowiadające, 

mówiąc   w   uproszczeniu,   orientacji   spinu   zgodnej   z   kierunkiem   zewnętrznego   pola 

magnetycznego oraz przeciwnej.

Pojawia się teraz interesujące pytanie, co się stanie, jeżeli celowo weźmiemy elektron, 

którego   wewnętrzne   pole   magnetyczne   jest   ustawione   prostopadle   do   pola   zewnętrznego,   to 

znaczy spin elektronu nie jest ustawiony ani zgodnie z kierunkiem pola, ani przeciwnie, lecz 

poprzecznie. Od strony matematycznej sytuacja ta opisana jest poprzez przyjęcie, że elektron 

znajduje się w stanie będącym „superpozycją” obydwu możliwości. Oznacza to, iż stan jest - 

znowu   w   pewnym   uproszczeniu   -   złożeniem   dwóch   zachodzących   na   siebie   rzeczywistości: 

background image

jednej, w której spin skierowany jest do góry, i drugiej, w której spin skierowany jest w dół. 

Jeżeli teraz dokonamy pomiaru energii, to jego wynik  będzie odpowiadał albo orientacji „w 

górę”,   albo   orientacji   „w   dół”,   a   nie   żadnej   przedziwnej   kombinacji   obydwu.   Tymczasem 

właściwa mechanice kwantowej nieoznaczoność nie pozwala nam przewidzieć z góry, z którą z 

tych możliwości będziemy mieli do czynienia. Prawa mechaniki kwantowej pozwalają jednak na 

przypisanie alternatywnym stanom względnych wartości prawdopodobieństwa. W rozważanym 

przykładzie wartości te są równe. Zatem, według prymitywnej wersji hipotezy wielu światów, w 

momencie dokonywania pomiaru świat rozpada się na dwa „egzemplarze”: jeden, w którym spin 

zorientowany jest ku górze, i drugi, w którym zorientowany jest w dół.

Bardziej wyrafinowana wersja zakłada, że oba światy istnieją przez cały czas, lecz przed 

dokonaniem   eksperymentu   są   one   identyczne   pod   każdym   względem.   Dopiero   sam   pomiar 

powoduje   ich   zróżnicowanie   pod   względem   orientacji   spinu   elektronu.   W   przypadku   gdy 

wchodzą   w   grę   nierówne   wartości   prawdopodobieństwa,   można   sobie   zakładać   więcej 

identycznych   światów,   odpowiednio   do   tych   wartości.   Na   przykład,   jeśli   mamy   wartości 

prawdopodobieństwa   2/3   dla   orientacji   „w   górę”   i   dla   orientacji   „w   dół”,   to   można   sobie 

wyobrażać   trzy   początkowo   identyczne   światy,   z   których   dwa   pozostają   identyczne   i   spin 

skierowany jest w nich „do góry”, a trzeci różni się od nich tym, że spin skierowany jest „w dół”. 

W   ogólnym   przypadku   potrzeba   nieskończonej   liczby   światów,   aby   uwzględnić   wszystkie 

możliwości.

Wyobraźmy sobie teraz, że stosujemy tę ideę nie do pojedynczego elektronu, lecz do 

wszystkich cząstek we Wszechświecie. W całym kosmosie nieoznaczoności dotyczące każdej 

bez wyjątku cząstki elementarnej powodują rozszczepianie się rzeczywistości na coraz to więcej 

niezależnie istniejących światów. Z wizji tej wynika, że wszystko, co może się zdarzyć, zdarza 

się; to znaczy, każdy zespół warunków, który jest dopuszczalny fizycznie (aczkolwiek nie każdy 

dopuszczalny logicznie), zostaje gdzieś zrealizowany pośród tej nieskończonej liczby światów.

Poszczególne   światy   należy   przy   tym   uważać   za   „równoległe”,czyli   współistniejące 

rzeczywistości.   Dany obserwator   będzie,   oczywiście,   widział   zawsze  tylko   jeden   z  nich,   ale 

musimy  zakładać,  że świadomość  obserwatora  również  podlega  procesowi rozwarstwiania,  a 

więc   każdy   z   tej   mnogości   alternatywnych   światów   będzie   zawierał   również   kopie   umysłu 

obserwatora.   Założeniem   całej   teorii   jest,   że   nie   uświadamiamy   sobie   tego   „rozszczepienia” 

umysłu i każdy „egzemplarz” uważa się za jedyny, integralny umysł. Niemniej jednak zostajemy 

background image

w   ten   sposób   powieleni   w   nieskończonej   liczbie   egzemplarzy.   Hipoteza,   mimo   całej   swojej 

niecodzienności,   znajduje   uznanie,   w   tej   czy   innej   wersji,   u   wielu   zarówno   fizyków,   jak   i 

filozofów. Szczególnie przemawia ona do badaczy zajmujących się kosmologią kwantową, gdzie 

alternatywne   interpretacje   mechaniki   kwantowej   stwarzają   jeszcze   większe   trudności.   Trzeba 

jednakże przyznać, że teoria ta ma też swoich krytyków, którzy (np. Roger Penrose) kwestionują 

między innymi pogląd, że nie da się dostrzec rozszczepienia.

Nie jest to bynajmniej jedyna istniejąca hipoteza wielości światów. Inną, nieco łatwiejszą 

do   wizualizacji,   możliwością   jest,   iż   to,   co   nazywamy   „Wszechświatem”,   stanowi   zaledwie 

niewielki   wyrywek   olbrzymiego   układu   rozciągającego   się   o   wiele   dalej   w   przestrzeni. 

Gdybyśmy byli  w stanie zaglądnąć dalej niż te dziesięć miliardów  z okładem lat świetlnych 

dostępnych naszym instrumentom obserwacyjnym, zobaczylibyśmy (tak przynajmniej twierdzi 

się   w   tej   teorii)   zupełnie   odmienne   obszary   Wszechświata.   Liczba   możliwych   obszarów   z 

różnymi warunkami w nich panującymi jest nieograniczona, gdyż zakłada się, że Wszechświat 

jest nieskończenie wielki. Ściśle mówiąc, jeżeli definiuje się „Wszechświat” jako wszystko, co 

istnieje, to należałoby w tym przypadku mówić raczej o hipotezie wielu obszarów aniżeli wielu 

światów, ale dla naszych celów rozróżnienie to nie jest istotne.

Zagadnieniem,   które   musimy   teraz   rozważyć,   jest,   czy   oznaki   planowego   charakteru 

świata mogą być jednocześnie traktowane jako oznaki przemawiające na rzecz istnienia wielości 

światów.   W   niektórych   przypadkach   odpowiedź   musi   być   zdecydowanie   pozytywna.   Na 

przykład   wielkoskalowy   rozkład   przestrzenny   materii   w   kosmosie   ma   istotne   znaczenie   dla 

powstania życia.  Gdyby Wszechświat był  wysoce  nieregularny,  powstawałyby w nim czarne 

dziury lub też turbulencje gazowe, a nie uporządkowane galaktyki zawierające stabilne gwiazdy i 

planety, mogące stworzyć warunki dogodne dla życia. Jeżeli wyobrazimy sobie nieskończoną 

mnogość   światów   z   przypadkowym   rozkładem   materii,   to   przeważałyby   wśród   nich   światy 

całkowicie chaotyczne. Niemniej tu i ówdzie, na zasadzie czystego przypadku, powstawałyby 

oazy porządku, w których możliwe byłoby powstanie życia. Zmierzającą w tym kierunku wersję 

scenariusza kosmicznej inflacji przedstawił ostatnio rosyjski fizyk Andriej Linde. Chociaż owe 

oazy spokoju byłyby niewiarygodnie rzadkie, nie ma nic zaskakującego w tym, że znajdujemy się 

w takim miejscu, gdyż inaczej po prostu by nas nie było. W końcu nie dziwimy się temu, iż 

jesteśmy   nietypowo   usytuowani   na   powierzchni   planety,   podczas   gdy   przeważającą   część 

Wszechświata   stanowi   praktycznie   pusta   przestrzeń.   Tak   więc   obserwowany   przez   nas   w 

background image

kosmosie ład nie musi być wynikiem opatrznościowej preor-dynacji, lecz efektem selekcyjnym 

związanym z istnieniem nas samych.

Uzasadnienia   tego   typu   mogą   być   również   zastosowane   w   przypadku   niektórych 

„zbiegów   okoliczności”   w   fizyce   cząstek   elementarnych.   Omawiałem   już,   w   jaki   sposób 

mechanizm Higgsa pozwala na wyjaśnienie, skąd bierze się masa cząstek W i Z. W bardziej 

zaawansowanych teoriach unifikacji wprowadza się dalsze pola Higgsa, by wygenerować masę 

wszystkich   cząstek,   a   ponadto   ustalić   niektóre   inne   parametry   teorii   związane   z   natężeniem 

oddziaływania. Podobnie jak w przypadku podanej przeze mnie poprzednio analogii z ołówkiem, 

gdy układ-ołówek przewracając się przybiera jeden z wielu możliwych stanów (może wskazywać 

na   północny   wschód,   południowy   wschód,   południowy   zachód,   itd.),   w   bardziej 

zaawansowanych wersjach mechanizmu Higgsa układ cząstek może poprzez złamanie symetrii 

znaleźć   się   w   wielu   różnych   stanach.   Wybór   konkretnego   stanu   uwarunkowany   jest   w 

przypadkowy   sposób   fluktuacjami   kwantowymi,   tj.   wewnętrzną   nieoznaczonością   właściwą 

wszystkim   układom   kwantowym.   Teoria   wielości   światów   wymaga,   aby   każdej   możliwości 

odpowiadał odrębny zupełny Wszechświat; ewentualnie, aby były one realizowane w odrębnych 

obszarach   przestrzeni.   W   obu   przypadkach   mamy   do   czynienia   z   mnogością   układów 

kosmologicznych, w których występują różne wartości mas cząstek i odziaływań. Można wtedy 

utrzymywać, że tylko w układach, w których parametry te są sprzyjające, może pojawić się życie.

Mimo iż teoria wielości światów pozwala na wyjaśnienie tego, co w innym przypadku 

pozostawałoby   zadziwiającymi   szczególnymi   faktami   przyrody,   natyka   się   ona   na   szereg 

poważnych trudności. Pierwszą z nich, którą omawiałem już w rozdziale 7, jest, że stanowi ona 

policzek   wymierzony   brzytwie   Ockhama   poprzez   wprowadzenie   ogromnej   (faktycznie 

nieskończonej)   złożoności   po   to,   by   uzasadnić   prawidłowości   tylko   jednego   Wszechświata. 

Osobiście uważam, że taka metoda „strzelania z grubej rury”  przy wyjaśnianiu szczególnego 

charakteru naszego Wszechświata jest wątpliwa pod względem naukowym. Pojawia się także 

problem,   że   teoria   ta   jest   w   stanie   wyjaśnić   jedynie   te   aspekty   przyrody,   które   mają   jakieś 

znaczenie   dla   zaistnienia   życia   i   świadomości;   w   innych   przypadkach   nie   istnieje   żaden 

mechanizm selekcji. Część z podawanych przeze mnie przykładów planowego charakteru świata, 

jak wyrafinowanie i jedność fizyki cząstek elementarnych, nie ma żadnych wyraźnych związków 

z biologią. A należy mieć na uwadze, że nie wystarczy, by dana cecha była z jakichś względów 

istotna biologicznie; powinna ona odgrywać zasadniczą rolę przy powstawaniu życia w takiej 

background image

formie, jaka faktycznie istnieje.

Innym momentem, nad którym na ogół przechodzi się do porządku dziennego, jest to. że 

we wszystkich teoriach wielości światów, które wywodzą się z fizyki (w przeciwieństwie do 

czystego   fantazjowania   na   temat   istnienia   innych   światów),   prawa   fizyki   są   takie   same   we 

wszystkich światach. Selekcja dokonuje się wyłącznie wśród światów fizycznie dopuszczalnych, 

a nie wszystkich, jakie można sobie wyobrazić. Mogą być światy niesprzeczne logicznie, lecz 

sprzeczne   z   prawami   fizyki.   W   podanym   przykładzie   z   elektronem,   który   może   mieć   spin 

skierowany w górę lub w dół, w obu światach elektron ma ten sam ładunek elektryczny, podlega 

tym samym prawom elektromagnetyzmu, itd. Tak więc teorie wielości światów pozwalają na 

selekcję spośród różnych stanów świata, lecz nie spośród praw. Prawdą jest, że rozróżnienie 

między cechami przyrody, które zawdzięczają swe istnienie jakiemuś prawu, a tymi, które są 

tylko   wyrazem   określonego   jej   stanu,   nie   zawsze   jest   możliwe.   Widzieliśmy   już,   że   pewne 

parametry,   jak   masy   niektórych   cząstek,   które   poprzednio   wchodziły   do   teorii   jako   część 

zakładanych   praw   fizyki,   są   teraz   uważane   za   stany,   których   wybór   dokonuje   się   poprzez 

mechanizm Higgsa. Jednak mechanizm ten działa w ramach teorii, kióra zawiera swoje własne 

prawa,   i   je   także   należałoby   jakoś   uzasadnić.   Ponadto,   jakkolwiek   wskutek   fluktuacji 

kwantowych   mechanizm  Higgsa  może  działać  odmiennie  w   różnych   światach,   na  podstawie 

dotychczasowych teorii nie wynika wcale, że można w ten sposób uzyskać wszystkie możliwe 

wartości mas cząstek, natężenia pól, itp. Mechanizm Higgsa i inne podobne mechanizmy tak 

zwanego   łamania   symetrii   prowadzą   na   ogół   do   dyskretnego,   i   to   skończonego,   zbioru 

alternatywnych wartości.

Dlatego nie jest możliwe, jak sugerowali niektórzy fizycy, wyjaśnienie na tej drodze faktu 

istnienia praw, którym podlega przyroda. Czy nie można by jednak rozszerzyć koncepcji wielości 

światów tak, by obejmowała także wybór spośród różnych praw? Nie istnieją żadne przeszkody 

logiczne,  by tego dokonać, lecz nie ma jednocześnie po temu żadnych  podstaw  naukowych. 

Przypuśćmy wszakże, że dopuszczamy wśród alternatywnych rzeczywistości również ogromną 

klasę takich, w których nie występuje żaden porządek, prawa czy regularności, tzn. panuje w nich 

totalny chaos. Światy te zachowywałyby się w sposób całkowicie przypadkowy. I tak jak małpa 

waląca   w   klawisze   maszyny   do   pisania   może   w   końcu   napisać   dzieła   Szekspira,   wśród   tej 

ogromnej liczby światów znajdą się takie, w których, na zasadzie czystego przypadku, pojawi się 

jakiś porządek. Argumenty typu antropicznego prowadzą nas wtedy do stwierdzenia, że każdy 

background image

obserwator będzie z konieczności widział świat uporządkowany, choćby był on nie wiem jak 

rzadki   pośród   swych   chaotycznych   pobratymców.   Czy   można   by   to   uznać   za   wyjaśnienie 

naszego świata?

Moim zdaniem, odpowiedź na to pytanie jest negatywna. Pozwolę sobie przypomnieć, że 

argumenty natury antropicznej mają sens jedynie w odniesieniu do tych aspektów przyrody, które 

mają   istotne   znaczenie   dla   życia   biologicznego.   W   przypadku   wyboru   spośród   światów   nie 

podlegających   w   ogólnym   przypadku   żadnym   prawom,   przeważająca   liczba   wybranych 

przypadkowo   zamieszkałych   światów   będzie   uporządkowana   tylko   pod   względami,   które 

odgrywają zasadniczą rolę w powstawaniu i zachowaniu życia. Nie ma na przykład żadnego 

powodu, dlaczego  ładunek elektronu miałby pozostawać absolutnie niezmienny w czasie lub 

dlaczego wszystkie elektrony mają dokładnie taki sam ładunek. Drobne fluktuacje wartości tego 

ładunku nie zagrażałyby istnieniu życia. Cóż innego mogłoby powodować, że ładunek ten jest 

stały, i to stały z tak zdumiewającą dokładnością, jeśli nie prawa fizyki? Można sobie wyobrazić 

mnogość światów, w której w każdym świecie są inne, choć ustalone, prawa. Być może da się 

wtedy za pomocą argumentów antropicznych uzasadnić, dlaczego przynajmniej niektóre z praw, 

jakie obserwujemy, mają daną postać. Niemniej hipoteza ta musi zakładać pojęcie samego prawa, 

pozostaje więc otwarte pytanie, skąd wzięły się same prawa i w jaki sposób „umocowują” się one 

w świecie „na zawsze”.

Moją konkluzją jest, że hipoteza wielu światów jest w stanie uzasadnić co najwyżej cześć 

cech rzeczywistego świata, i to pod warunkiem przyjęcia pewnych metafizycznych założeń, które 

są równie nieoczywiste  jak planowy charakter świata.  Ostatecznie  brzytwa  Ockhama  skłania 

mnie do postawienia na planowość świata, lecz jak zwykle w kwestiach metafizycznych, wybór 

ten jest bardziej sprawą osobistych preferencji niż osądu naukowego. Warto jednak zauważyć, że 

uznawanie hipotezy wielu światów w żadnym stopniu nie kłóci się z wiarą w Boga jako autora 

planu świata. W istocie, jak zaznaczałem, wiarygodne wersje tej hipotezy nadal pozostawiają 

miejsce dla poszukiwania dalszego uzasadnienia faktów takich, jak uporządkowany charakter 

światów   i   skąd   w   ogóle   wzięła   się   sama   mnogość   światów.   Wspomnę   także,   że   wszelkie 

dyskusje, w których w oparciu o obserwacje jednego tylko Wszechświata wyciąga się wnioski co 

do nieprawdopodobności tej czy innej cechy, rodzą poważne kwestie związane z istotą samego 

prawdopodobieństwa.   Sądzę,   że   zostały   one   zadowalająco   rozpatrzone   przez   Johna   Leslie, 

niemniej jednak niektórzy autorzy upierają się, że wszelkie argumentowanie wstecz „po fakcie” - 

background image

w tym przypadku faktem tym jest zaistnienie nas samych -jest niedopuszczalne.

background image

Kosmologiczny darwinizm

Ostatnio Lee Smolin przedstawił interesującą wersję hipotezy wielu światów, która unika 

pewnych zarzutów poprzez ukazanie nietrywialnego związku pomiędzy wymogami istnienia istot 

żywych a wielością różnych światów. W rozdziale 2 ukazywałem, że, jak wynika z badań w 

dziedzinie   kosmologii   kwantowej,   w   wyniku   fluktuacji   kwantowych   mogą   powstawać 

„wszechświaty niemowlęce” i w ten sposób „wszechświat macierzysty” może ulec rozmnożeniu. 

Te nowe wszechświaty powstają w czarnych dziurach. Zgodnie z klasyczną (niekwantową) teorią 

grawitacji, czarna dziura zawiera w sobie osobliwość, którą można uważać za coś w rodzaju 

brzegu czasoprzestrzeni. W wersji kwantowej osobliwość ta ulega pewnemu rozciągnięciu. Nie 

wiemy dokładnie, jak to się dzieje, w każdym razie wyraźny brzeg czasoprzestrzeni przemienia 

się w coś w rodzaju tunelu, gardzieli czy też pępowiny, łączącej nasz Wszechświat z nowym, 

niemowlęcym wszechświatem. Jak podawałem w rozdziale 2, czarna dziura w wyniku efektów 

kwantowych może ostatecznie „wyparować”, zrywając „pępowinę” i pozostawiając wszechświat 

niemowlęcy jako niezależnie istniejący.

Smolin   rozwinął   tę   myśl   zauważając,   że   w   ekstremalnych   warunkach   panujących   w 

pobliżu osobliwości może dochodzić do drobnych przypadkowych zmian w prawach fizyki. W 

szczególności wartości niektórych stałych przyrody, takich jak masy cząstek, ładunki, itp., we 

wszechświecie   pochodnym   mogą   się   nieznacznie   różnić   od   tych,   jakie   występowały   we 

wszechświecie   macierzystym.   Ewolucja   wszechświata   pochodnego   będzie   zatem   przebiegała 

nieco odmiennie. Przy odpowiednio dużej liczbie „pokoleń” różnice pomiędzy poszczególnymi 

wszechświatami mogą być już dość znaczne. Prawdopodobnie jednak we wszechświatach, które 

różnią się znacznie od naszego, nie powstaną gwiazdy (jak pamiętamy, warunki umożliwiające 

narodziny gwiazd są dość szczególne). Ponieważ czarne dziury powstają przede wszystkim z 

gwiazd, które zakończyły swoją ewolucję, we wszechświatach takich nie byłoby wiele czarnych 

dziur   i   nie   mogłyby   one   rodzić   wielu   wszechświatów   niemowlęcych.   Natomiast   we 

wszechświatach, których  fizyczne  parametry pozwalają na powstawanie dużej liczby gwiazd, 

tworzyłoby się także wiele czarnych dziur, a tym samym i więcej wszechświatów niemowlęcych 

posiadających zbliżone wartości tych parametrów. Owo zróżnicowanie kosmicznej „płodności” 

prowadzi do czegoś w rodzaju darwinowskiego doboru naturalnego. Chociaż wszechświaty nie 

konkurują   bezpośrednio   ze   sobą   o   przeżycie,   powstaje   podział   na   „skuteczne”   i   „mniej 

background image

skuteczne”, i udział „skutecznych” wszechświatów - w tym przypadku takich, w których procesy 

powstawania gwiazd są najbardziej  wydajne - w całej populacji stale się powiększa. Smolin 

wskazuje następnie, że istnienie gwiazd stanowi także warunek konieczny do powstania życia. 

Zatem   te   same   warunki,   które   sprzyjają   życiu,   sprzyjają   także   narodzinom   innych 

wszechświatów, w których  możliwe jest życie. W koncepcji Smolina życie nie stanowi więc 

zdarzenia skrajnie rzadkiego, jak w innych teoriach wielu światów, lecz będzie ono występowało 

w większości wszechświatów.

Mimo   jej   atrakcyjności,   nie   jest   oczywiste,   czy   teoria   Smolina   stanowi   istotny   krok 

naprzód w wyjaśnianiu szczególnego charakteru naszego Wszechświata. Ukazanie możliwych 

powiązań pomiędzy ewolucją biologiczną a kosmologiczną jest niewątpliwie ciekawe, niemniej 

nadal można zadawać pytanie, dlaczego prawa przyrody są takie, że umożliwiają te powiązania. 

W   końcu   fakt,   że   warunki   powstawania   życia   odpowiadają   warunkom   narodzin   nowych 

wszechświatów, jest także bardzo szczęśliwym zbiegiem okoliczności Ponadto, by teoria ta miała 

w ogolę sens, nadal konieczne jest, aby zasadnicza struktura praw we wszystkich wszechświatach 

była taka sama To, ze ta właśnie wspólna struktura sprzyja powstaniu życia, pozostaje faktem 

niewyjaśnionym.

background image

Rozdział dziewiąty

TAJEMNICA U PODSTAW ŚWIATA

Zawsze uważałem za dziwne że mimo iż większość naukowców odżegnuje się od religii to 

faktycznie zajmuje ona w ich myślach więcej miejsca niż u duchownych.

Fred Hoyle w książce tej postawiłem sobie za cel prześledzenie racjonalnych przesłanek 

naukowych,   na   ile   się   tylko   dało,   w   poszukiwaniu   ostatecznych   odpowiedzi   w   kwestiach 

egzystencjalnych   Idea,   ze   możliwe   jest   wyjaśnienie   wszystkiego   do   końca   -   całego   świata 

przyrodzonego i nadprzyrodzonego w ramach jednego spójnego systemu wiedzy -jest niezwykle 

pociągająca   Jednakże   jakąż   możemy   mieć   pewność,   ze   tak   określony   cel   naszych   dążeń 

poznawczych nie jest tylko mrzonką?

background image

Potęga żółwia

Stephen Hawkmg rozpoczyna swą słynną książkę Krótka historia czasu od przytoczenia 

anegdotki o starszej pani, która wysłuchawszy popularnego odczytu o Wszechświecie wstała i 

powiedziała, ze ona i tak wie swoje. Świat, jej zdaniem, naprawdę jest płaski i opiera się na 

grzbiecie ogromnego żółwia. Zapytana przez prelegenta, na czym z kolei opiera się ów żółw, 

odparła „Żółw stoi na żółwiu, i tak dalej, bez końca”.

Anegdotka   ta   unaocznia   podstawowy   problem,   jaki   staje   przed   wszystkimi,   którzy 

poszukują  ostatecznych  odpowiedzi  w   kwestiach   istnienia  świata.   Staramy   się  uzasadnić   ten 

świat odwołując się do czegoś bardziej fundamentalnego, jakiegoś zespołu przyczyn,  który z 

kolei   uwarunkowany   jest   jakimiś   prawami   czy   też   podstawowymi   zasadami,   lecz   następnie 

poszukujemy uzasadnienia również dla tego bardziej fundamentalnego poziomu, i tak dalej. Czy 

ten ciąg rozumowania ma gdzieś swój kres? Trudno pogodzie się z myślą, ze mógłby on iść w 

nieskończoność „Nie ma piramidy żółwi - utrzymuje John Wheeler - Nie jest tak, ze każda 

struktura,   porządek,   teoria,   opierają   się   na   strukturach   niższego   poziomu,   te   z   kolei   na 

następnym, potem jeszcze niższym, i tak ad infinitum, aż w bezdenną otchłań”

Ale jakąż mamy alternatywę? Czy jest jakiś „superzółw”, który nie wymagając podparcia, 

stanowi   podstawę   całej   piramidy”?   A   może   ten   „superzółw”   w   jakiś   sposób   „podpiera   sam 

siebie”? Pogląd ten ma długą historię. Widzieliśmy już, iż filozof Spinoza dowodził, ze świat nie 

mógłby być inny, że Bóg nie miał żadnego wyboru. Superżółwiem w świecie Spinozy jest czysto 

logiczna konieczność. Nawet ci, którzy uważają, ze świat jest przygodny, odwołują się do tego 

samego argumentu, twierdząc, ze uzasadnieniem dla świata jest Bóg, który jest bytem logicznie 

koniecznym.   W   rozdziale   7   przedstawiłem   problemy,   jakie   pojawiają   się,   gdy   próbujemy 

wyjaśniać   przygodność   poprzez   konieczność   Wcale   me   mniejsze   trudności   mają   ci,   którzy 

odrzucając   Boga   poszukują   jakiejś   Teorii   Wszystkiego,   która   dostarczałaby   uzasadnienia 

Wszechświata i była zarazem wyznaczona jednoznacznie na gruncie logicznej konieczności

Mogłoby się wydawać, ze jedyną alternatywą  jest bądź nieskończona piramida żółwi, 

bądź   tez   istnienie   ostatecznego   superzołwia,   który   stanowi   uzasadnienie   samego   siebie 

Tymczasem jest jeszcze trzecia możliwość zamknięta pętla W przepięknej książeczce  Vicious  

Circles   and   Infinity  [Błędne   koła   i   nieskończoność]   znajduje   się   ilustracja   przedstawiająca 

pierścień z ludzi (zamiast żółwi), z których każdy siedzi na kolanach poprzedniego, trzymając z 

background image

kolei   sam kogoś   na kolanach.   Ta  zamknięta   pętla  wzajemnie  podtrzymujących   się  ludzi  ma 

symbolizować   koncepcję   Wszechświata   Johna   Wheelera   „Fizyka   rodzi   współuczestniczącego 

obserwatora,   obserwator   rodzi   informację,   informacja   rodzi   fizykę”.   To   dość   niejasne 

stwierdzenie  bierze  swój początek  z idei  kwantowomechanicznych,  gdzie  nie ma  wyraźnego 

podziału na obserwatora i obserwowany świat, stąd „współuczestniczący obserwator” Wheeler 

interpretuje mechanikę kwantową w ten sposób, iż rzeczywisty świat aktualizuje się poprzez akt 

obserwacji, jednak ten sam fizyczny świat rodzi obserwatora, który powoduje aktualizację jego 

istnienia.   Ponadto   aktualizacja   ta   dotyczy   również   samych   praw   fizyki,   ponieważ   Wheeler 

odrzuca całkowicie pojęcie praw wiecznych.  „Prawa fizyki  nie mogą istnieć z wieczności w 

wieczność.   Musiały   one   również   zaistnieć   podczas   Wielkiego   Wybuchu”.

 

Zatem,   miast 

odwoływać   się   do   pozaczasowych,   transcendentnych   praw   powołujących   świat   do   istnienia, 

Wheeler preferuje wizję „obwodu samowzbudzającego się”, czyli Wszechświata, który powoduje 

zaistnienie   samego   siebie,   wraz   z   prawami   fizyki   i   wszystkim   innym.   Jakkolwiek   taki 

„samosprzężony” układ może wydawać się pociągający, bynajmniej nie jest on w stanie stanowić 

ostatecznego wyjaśnienia, gdyż zawsze można zapytać „,Skąd się wzięło to sprzężenie?” czy też 

„Dlaczego   w   ogóle   istnieje   jakiekolwiek   sprzężenie?”   Nawet   zamknięta   pętla   wzajemnie 

podpierających się żółwi rodzić będzie zawsze pytanie „A dlaczego właśnie żółwie?”

Wszystkie trzy z podanych powyżej schematów oparte są na założeniu, ze człowiek jest 

istotą racjonalną, ze zasadne jest poszukiwanie „racji” dla wszystkiego i ze naprawdę rozumiemy 

coś   dopiero   wtedy,   gdy   znamy   „uzasadnienie”   tego   Jednakże   trzeba   przyznać,   że   pojęcie 

racjonalnego uzasadniania  bierze się prawdopodobnie z naszych  obserwacji świata i naszego 

dziedzictwa   ewolucyjnego.   Czy   możemy   być   pewni,   że   prowadzi   nas   ono   we   właściwym 

kierunku, gdy wikłamy się w rozwiązywanie podstawowych kwestii istnienia? Czyż nie może 

być tak, że racja istnienia świata nie stanowi jego uzasadnienia w normalnym sensie tego słowa? 

Nie oznaczałoby to, że Wszechświat jest absurdalny lub pozbawiony sensu, lecz jedynie to, iż 

uzasadnienie jego istnienia i własności wykracza poza zwykłe kategorie racjonalnego myślenia 

człowieka.   Widzieliśmy   już,   że   nawet   stosowanie   racjonalnego   myślenia   w   jego   najbardziej 

wyrafinowanej   i   sformalizowanej   postaci   w   matematyce   nie   jest   wolne   od   paradoksów   i 

niepewności.   Twierdzenie   Godła   stanowi   ostrzeżenie,   iż   aksjomatyczna   metoda   wyciągania 

wniosków   z   danych   założeń   na   drodze   dedukcyjnej   nie   pozwala   w   ogólnym   przypadku   na 

stworzenie systemu, o którym dałoby się dowieść, że jest zupełny i spójny. Zawsze będzie jakaś 

background image

prawda   przekraczająca   go,   której   nie   można   osiągnąć   wychodząc   ze   skończonego   zbioru 

aksjomatów.   Poszukiwania   zamkniętej   teorii,   która   dostarczałaby   pełnego   i   spójnego   opisu 

wszystkiego,   co   istnieje,   skazane   są   na   niepowodzenie.   Podobnie   jak   kabalistyczna   liczba   u 

Chaitina, taka teoria może istnieć i my możemy o tym wiedzieć, a nawet poznać jej niewielkie 

fragmenty,   lecz   nigdy   nie   będziemy   w   stanie   poznać   jej   w   całości   na   drodze   racjonalnego 

poznania.

Wydaje mi się, że jak długo utożsamiamy „poznanie” z „racjonalnym uzasadnieniem”, 

takim, jakie występuje w naukach przyrodniczych, nieuchronnie popadamy w „problem żółwi”: 

albo   niekończący   się   ciąg,   albo   tajemniczy   superżółw   będący   swoją   własną   podstawą,   albo 

niewyjaśniona zamknięta pętla. U podstaw świata zawsze będzie kryć się tajemnica. Być może 

jednak istnieją jakieś inne formy poznania, które byłyby w stanie zaspokoić poszukujący umysł. 

Czy możemy poznać sens świata bez wikłania się w „problem żółwi”? Czy jest jakaś metoda 

osiągania wiedzy - być może nawet „wiedzy ostatecznej” - która wykracza poza normalny tryb 

racjonalnego   poznania   naukowego   i   wnioskowania   logicznego?   Wielu   ludzi   uważa,   że   tak. 

Nazywa się ona mistycyzmem.

 

background image

Wiedza mistyczna

Ludzie nauki wykazują na ogół głęboką nieufność wobec mistycyzmu. Nie powinno to 

nikogo   dziwić,   jako   że   myślenie   mistyczne   jest   krańcowym   przeciwieństwem   myślenia 

racjonalnego, na którym opiera się metoda naukowa. Ponadto, mistycyzm bywa często mylony z 

wiedzą tajemną, zjawiskami paranormalnymi i innymi podejrzanymi poglądami z obrzeża nauki. 

W istocie, wiele z najtęższych umysłów w dziejach nauki, w tym uczeni tacy jak Einstein, Pauli, 

Schródinger,   Heisenberg,   Eddington   i   Jeans,   nie   stroniło   od   mistycyzmu.   Moim   własnym 

poglądem w tej kwestii jest, że metodą  naukową należy się posługiwać, gdzie tylko można. 

Mistycyzm nie może zastępować badań naukowych i racjonalnego myślenia tam, gdzie mogą być 

one prawomocnie zastosowane. Dopiero gdy przychodzi do podjęcia fundamentalnych kwestii 

związanych z istnieniem, nauka i logika zaczynają nas zawodzić. Nie chcę tu powiedzieć, że dają 

one niewłaściwe odpowiedzi, lecz że nie są w stanie odpowiedzieć na pytania typu „dlaczego” (w 

przeciwieństwie do „jak”), z którymi wtedy mamy do czynienia.

Terminem „doświadczenie mistyczne” posługują się często ludzie głęboko religijni lub 

uprawiający praktyki medytacyjne. Doświadczenia tego typu, które są bez wątpienia realne dla 

ludzi, którzy je przeżywają, są podobno bardzo trudne do oddania słowami. Mistycy  mówią 

często   o   przemożnym   poczuciu   bycia   jednością   ze   światem   lub   z   Bogiem,   przebłysku 

holistycznej wizji rzeczywistości czy też bliskości potężnej, miłującej istoty. Najbardziej istotne 

jest   to,   że   utrzymują   oni,   że   chwytają   ostateczną   rzeczywistość   w   ramach   pojedynczego 

przeżycia, w przeciwieństwie do długich i żmudnych rozumowań dedukcyjnych (wikłających się 

ponadto   w   „problem   żółwi”),   nieodłącznie   związanych   z   logiczno-naukową   drogą   poznania. 

Niekiedy przeżycia mistyczne sprowadzają do doznania wewnętrznego spokoju „współczujący, 

radosny spokój, dający wytchnienie od wytężonej  pracy umysłu”, jak to opisywał mi kiedyś 

pewien znajomy fizyk. Einstein mówił o „kosmicznym przeżyciu religijnym” inspirującym go do 

rozważań nad porządkiem i harmonią przyrody. Niektórzy naukowcy, z których warto wymienić 

przede   wszystkim   Briana   Josephsona   i   Davida   Bohma,   uważają,   że   regularne   przeżycia 

mistyczne  osiągane na drodze cichych  praktyk  medytacyjnych  mogą  pomóc  w formułowanu 

teorii naukowych.

W   innych   przypadkach   przeżycia   mistyczne   zdają   się   mieć   bardziej   bezpośredni   i 

objawiający charakter. Russell Stannard pisze o doznanym wrażeniu stanięcia twarzą w twarz z 

background image

przemożną nieznaną siłą, „która wzbudzała jednocześnie poczucie czci i bojaźni. (...) Było w tym 

coś niepokojąco naglącego; jak gdyby wzbierający wulkan mający właśnie wybuchnąć”. Autor 

książek o nauce David Peat opisuje „dziwne intensywne uczucie, które zdaje się zalewać cały 

otaczający nas świat, nadając mu w jednej chwili sens. (...) Mamy poczucie, iż dotykamy czegoś 

uniwersalnego,   może   nawet   wiecznego,   i   że   ta   właśnie   konkretna   chwila   zyskuje   charakter 

numinotyczny i zdaje się trwać w nieskończoność. Czujemy, że znikają wszelkie granice między 

nami   a   światem   zewnętrznym,   ponieważ   to,   czego   doświadczamy,   wymyka   się   wszystkim 

kategoriom i wszelkim próbom logicznego pojmowania”.

Język   używany   do   opisu   przeżyć   tego   typu   zwykle   uwarunkowany   jest   kręgiem 

kulturowym, do którego należy dany człowiek. Mistycy Zachodu podkreślają osobowy charakter 

uobecniania, opisując, że obcują z kimś, zazwyczaj jest to Bóg, kto jest odrębny od nich samych, 

lecz   czują   z   nim   głęboką   osobową   więź.   Tego   typu   doświadczenia   mają   długą   tradycję   w 

chrześcijaństwie   i   innych   religiach   Zachodu.   Mistycy   Wschodu   kładą   natomiast   nacisk   na 

poczucie bycia jedną całością ze wszystkim, co istnieje, i w większym stopniu utożsamiają się z 

tym,   co   uobecnia   się   w   przeżyciu   mistycznym.   Pisarz   Ken   Wilber   opisuje   doświadczenia 

mistyczne Wschodu posługując się charakterystycznie niejasnym językiem:

Świadomość mistyczna pojmuje Rzeczywistość bezpośrednio i w jednorazowym akcie, to 

znaczy   bez   żadnych   środków   pośredniczących,   żadnych   symboli,   pojęć   czy   też   abstrakcji; 

podmiot i przedmiot poznania stają się jednym w dokonującym się poza czasem i przestrzenią 

akcie, który przekracza wszelkie możliwe formy wyrazu. Wszyscy mistycy mówią o dotykaniu 

rzeczywistości ,jaką ona jest”, w jej samej istocie, bez odwoływania się do słów, symboli, nazw, 

myśli, obrazów.

Istotą doświadczenia mistycznego jest zatem coś w rodzaju dochodzenia do prawdy na 

skróty, bezpośredni, jednorazowy kontakt pozwalający ujrzeć ostateczną rzeczywistość. Według 

Rudiego Ruckera: Podstawową tezą mistycyzmu  jest: Rzeczywistość jest Jednością. Praktyka 

mistycyzmu  polega na odnajdywaniu sposobów pozwalających  na doświadczanie tej jedności 

bezpośrednio.   Jedność   ta   bywa   rozmaicie   nazywana:   Dobrem,   Bogiem,   Kosmosem,   Myślą, 

Nicością, czy też (chyba najbardziej neutralnie) Absolutem. Żadne drzwi w zamku-labiryncie 

nauki nie otwierają się bezpośrednio na Absolut.  Ale jeśli osiągnie  się odpowiednio wysoki 

stopień   poznania   tego   labiryntu,   można   wydostać   się   z   niego   i   doświadczyć   Absolutu   jako 

takiego. (...) Jednakże, ostatecznie, poznanie mistyczne dokonuje się w jednorazowym akcie lub 

background image

wcale. Nie ma tu żadnej drogi stopniowego dochodzenia do wiedzy.

W rozdziale 6 wspominałem, że niektórzy naukowcy i matematycy utrzymują, że doznali 

takich   nagłych   przebłysków,   bardzo   przypominających   przeżycia   mistyczne.   Roger   Penrose 

opisuje momenty natchnienia u matematyka jako nagłe „wdzieranie się” w platońską dziedzinę 

idei.   Rucker   zauważa,   że   Kurt   Godeł   również   mówił   o   „innej   relacji   do   rzeczywistości”, 

pozwalającej   mu   postrzegać   bezpośrednio   obiekty   abstrakcyjne,   jak   nieskończoność.   Inni 

naukowcy doznawali objawień nieoczekiwanie, pośród codziennych zajęć. Fred Hoyle opowiada 

o przypadku, jaki spotkał go, gdy jechał samochodem na północ Anglii. „Tak jak Paweł doznał 

objawienia w drodze do Damaszku, moje objawienie nastąpiło, gdy przejeżdżałem przez Bowes 

Moor”.   W   drugiej   połowie   lat   sześćdziesiątych   Hoyle   wraz   ze   swoim   współpracownikiem 

Jayantem Narlikarem pracował nad kosmologiczną teorią elektromagnetyzmu, która wymagała 

znacznej dozy trudnej matematyki. Pewnego dnia, zmagając się ze szczególnie skomplikowaną 

całką, Hoyle postanowił zrobić sobie parę dni odpoczynku i dołączyć do kolegów, którzy właśnie 

urządzili wędrówkę po górach Szkocji.

Gdy przemierzałem kolejne kilometry, ten kwantowomechaniczny problem (...) plątał mi 

się gdzieś po głowie w niejasny sposób, jak to bywa, kiedy myślę o matematyce w łóżku przed 

zaśnięciem. Zwykle muszę zapisywać wszystko na kartce, by potem grzebać się w równaniach i 

całkach na miarę moich umiejętności. Ale gdzieś koło Bowes Moor rozjaśniło mi się w głowie, 

nie odrobinę, nie w żaden zwykły sposób, lecz jak gdyby ktoś nagle włączył olbrzymi jaskrawy 

reflektor, w którego świetle ujrzałem wyraźną ideę. Ile to mogło trwać, zanim się przekonałem, 

że problem został w pełni rozwiązany? Chyba niecałe pięć sekund. Zanim doznanie to znikło, 

zdążyłem się jeszcze upewnić, że zapamiętałem wystarczająco dużo kroków rozwiązania, abym 

mógł je później odtworzyć. O stopniu mojej pewności świadczy fakt, że w ciągu następnych dni 

nie chciało mi się niczego zapisywać na papierze. Gdy po jakichś dziesięciu dniach wycieczki 

powróciłem do Cambridge, zapisanie całego toku rozumowania nie sprawiało trudności.

Hoyle wspomina również, jak rozmawiał na temat objawień z Richardem Feynmanem:

Kilka   lat   temu   Dick   Feynmann   plastycznie   opisywał,   jak   to   jest   w   takim   momencie 

natchnienia i że następuje potem ogromne poczucie euforii, trwające przez jakieś dwa, trzy dni. 

Gdy spytałem, ile razy mu się to przydarzyło, Feynman odparł: „cztery”; obaj zgodziliśmy się, że 

dwanaście dni euforii nie jest zbyt dużą zapłatą za życie wypełnione pracą naukową.

Opowiedziałem   przeżycia   Hoyle'a   w   tym   miejscu,   a   nie   w   rozdziale   6,   gdyż   sam 

background image

przyznaje,   że   miały   one   prawdziwie   religijny   (w   przeciwieństwie   do   czysto   platońskiego) 

charakter. Hoyle uważa, że za porządek kosmosu odpowiedzialna jest jakaś „superinteligencja”, 

która rządzi jego ewolucją poprzez procesy kwantowe; o koncepcji tej wspomniałem w rozdziale 

7. Ponadto Bóg Hoyle'a jest Bogiem Ideologicznym (co przypomina Arystotelesa lub Teilharda 

de Chardin), ukierunkowywującym świat ku końcowemu stanowi w nieskończonej przyszłości. 

Hoyle uważa, że działając na poziomie kwantowym superinteligencja ta jest w stanie zaszczepiać 

w ludzkim umyśle w gotowej postaci myśli i idee pochodzące z przyszłości. Stąd, jego zdaniem, 

bierze się natchnienie zarówno w matematyce, jak i w muzyce.

background image

Nieskończoność

W naszym poszukiwaniu odpowiedzi ostatecznych trudno nie natknąć się, w ten czy inny 

sposób, na nieskończoność. Czy to będzie  nieskończona  piramida  żółwi, nieskończony zbiór 

twierdzeń   matematycznych,   czy   też   nieskończony   Stwórca,   nie   wydaje   nam   się,   aby   świat 

fizyczny mógł wywodzić się z czegoś skończonego. W religiach Zachodu istnieje długa tradycja 

utożsamiania   Nieskończoności   z   Bogiem,   podczas   gdy   filozofia   Wschodu   stara   się 

wyeliminować różnicę między Jednością a Wielościa i utożsamić Nicość z Nieskończonościa – 

zero i nieskonczoność.

Gdy pierwsi myśliciele chrześcijańscy, jak Platon, głosili nieskończoność Boga, chcieli 

przez to powiedzieć przede wszystkim, że nie podlega On żadnym ograniczeniom. Matematyczne 

pojęcie nieskończoności w owym czasie było jeszcze bardzo niejasne. Powszechnie uważano, że 

nieskończoność stanowi granicę, ku której zmierza proces liczenia, lecz której w rzeczywistości 

nigdy   nie   da   się   osiągnąć.   Nawet   Tomasz   z   Akwinu,   który   przyznawał   Bogu   nieskończoną 

naturę, nie był gotów uznać, że nieskończoność może być czymś więcej niż bytem potencjalnym, 

w   przeciwieństwie   do   aktualnego.   Wszechmocny   Bóg   „nie   jest   w   stanie   uczynić   rzeczy 

nieograniczonej w sensie absolutnym” - twierdził.

Pogląd,   że   nieskończoność   jest   pojęciem   paradoksalnym   i   wewnętrznie   sprzecznym, 

utrzymał się aż do dziewiętnastego wieku. Wtedy to matematykowi Georgowi Cantorowi, przy 

okazji badania problemów trygonometrycznych, udało się ostatecznie przeprowadzić ścisły pod 

względem   logicznym   dowód,   że   pojęcie   nieskończoności   aktualnej   nie   jest   wewnętrznie 

sprzeczne.   Cantor   miał   ciężką   przeprawę   w   środowisku   naukowym;   niektórzy   wybitni 

matematycy uważali go wręcz za szaleńca. Faktem jest, że później naprawdę zapadł na chorobę 

umysłową.   Niemniej   w   końcu   zasady   wolnego   od   sprzeczności   posługiwania   się   liczbami 

nieskończonymi, mimo całej swojej niecodzienności i sprzeczności z intuicją, powszechnie się 

przyjęły.   W   istocie,   znaczna   część   dwudziestowiecznej   matematyki   opiera   się   na   pojęciu 

nieskończoności (bądź też wielkości nieskończenie małych).

Jeżeli nieskończoność daje się ująć i wykorzystać za pomocą racjonalnego rozumowania, 

czyż nie otwiera to drogi do poznania ostatecznego uzasadnienia wszechrzeczy bez odwoływania 

się   do   mistycyzmu?   Bynajmniej.   Aby   przekonać   się,   dlaczego,   musimy   bliżej   przyjrzeć   się 

samemu pojęciu nieskończoności.

background image

Jednym z zaskakujących wniosków Cantora było, że nie istnieje jedna nieskończoność, 

lecz cała mnogość nieskończoności. Na przykład, zbiór wszystkich liczb całkowitych  i zbiór 

wszystkich   ułamków   są   zbiorami   nieskończonymi.   Mogłoby   się   intuicyjnie   wydawać,   że 

ułamków jest więcej niż liczb całkowitych, ale to nieprawda. Z drugiej strony, zbiór wszystkich 

ułamków   dziesiętnych   jest   większy   niż   zbiór   wszystkich   ułamków   zwykłych   i   zbiór   liczb 

całkowitych. Pojawia się zatem pytanie: czy istnieje „największa” nieskończoność? Co będzie, 

jeśli połączymy wszystkie zbiory nieskończone w jeden superwszechzbiór? Klasa wszystkich 

możliwych zbiorów faktycznie istnieje i nosi nazwę Absolutu Cantora.

Jest tylko jeden szkopuł. Twór ten nie jest zbiorem, ponieważ gdyby był, to na mocy 

definicji musiałby również zawierać sam siebie. Ale zbiory zawierające same siebie prowadzą w 

prostej linii do antynomii Russella.

W ten sposób jeszcze raz natykamy się na gódlowską granicę dla poznania racjonalnego - 

tajemnicę   u   podstaw   świata.   Nie   możemy   poznać   Absolutu   Cantora,   ani   żadnego   innego 

Absolutu,   na   drodze   racjonalnej,   jako   że   każdy   Absolut,   będąc   Jednością,   a   zatem   bytem 

zupełnym, musi obejmować również siebie. Jak zauważył Rucker w kontekście Krainy Myśli, 

czyli klasy wszystkich zbiorów idei: „Jeżeli Kraina Myśli jest Jednością, to jest ona elementem 

samej siebie, a zatem może być poznana jedynie w przebłysku objawienia mistycznego. Żadna 

idea racjonalna nie obejmuje samej siebie, a zatem nie istnieje racjonalna idea pozwalająca pojąć 

Krainę Myśli jako Jedno”.

background image

Kim jest człowiek?

Czuję, że jestem w tym Wszechświecie u siebie.

Freeman Dyson

Czy   szczere   przyznanie,   że   nie   ma   dla   nas   żadnej   nadziei   na   osiągnięcie   poznania 

ostatecznego,  oznacza,  że  wszelkie  rozważania  metafizyczne  są bezwartościowe?  Czy mamy 

przyjmować praktyczną postawę ateisty, który zadowala się przyjęciem, że Wszechświat jest mu 

dany jako taki, i zajmuje się katalogowaniem jego własności? Niewątpliwie wielu naukowców 

gwałtownie   sprzeciwia   się   powoływaniu   na   argumenty   metafizyczne,   nie   mówiąc   już   o 

mistycznych, w jakiejkolwiek postaci. Pogardliwie odnoszą się oni do przekonania, że mógłby 

istnieć Bóg, czy nawet jakiś nieosobowy czynnik stwórczy, czy też zasada bytu, pozwalająca na 

jakieś   uzasadnienie   rzeczywistości,   by   uczynić   jej   przygodne   aspekty   mniej   arbitralnymi. 

Osobiście nie podzielam tej pogardy. Chociaż wiele metafizycznych i teistycznych teorii może 

się wydawać wydumanymi lub dziecinnymi, nie są one absurdalne bardziej niż przekonanie, że 

świat istnieje, i to istnieje właśnie w takiej postaci, bez żadnej racji. Wydaje się, że co najmniej 

warto   spróbować   zbudowania   teorii   metafizycznej,   która   w   jakimś   stopniu   zmniejszałaby 

arbitralny   charakter   świata.   Niemniej   ostateczne   racjonalne   uzasadnienie   świata   w   sensie 

stworzenia zupełnego zamkniętego systemu prawd logicznych jest prawie na pewno niemożliwe. 

Dostępu   do  wiedzy  ostatecznej,   do  poznania   ostatecznego   uzasadnienia   bronią   nam   te   same 

reguły rozumowania, które wpierw skłaniają nas do poszukiwania takiego uzasadnienia. Jeżeli 

chcemy   wyjść   poza   nie,   musimy   przyjąć   inną   koncepcję   „poznania”   niż   poszukiwanie 

uzasadnienia na drodze racjonalnej. Możliwe, że poznanie takie da się osiągnąć poprzez mistykę. 

Sam nigdy nie miałem żadnych doświadczeń mistycznych, niemniej nie wzbraniam się przed 

uznaniem   takich   doświadczeń   za   wartościowe.   Być   może   stanowią   one   jedyny   sposób,   by 

wykroczyć  poza granice, do których doprowadza nas filozofia i nauki przyrodnicze, i jest to 

jedyna droga do Absolutu.

Zasadniczym wątkiem, którym zajmowałem się w tej książce, było to, że poprzez naukę 

my, ludzie, jesteśmy w stanie poznać przynajmniej niektóre sekrety przyrody. Udało nam się 

częściowo złamać kosmiczny szyfr. Dlaczego jest tak, że to właśnie Homo sapiens przypadła w 

udziale   iskierka   racjonalności,   dająca   klucz   do   świata,   pozostaje   niezgłębioną   zagadką.   My, 

background image

którzy   wyrośliśmy   z   tego   Wszechświata   jako   ożywiony   gwiezdny   pył,   jesteśmy   pomimo   to 

zdolni do refleksji nad jego naturą, aż po przebłyski poznania zasad, które nim rządzą. W jaki 

sposób zostaliśmy włączeni w ten kosmiczny wymiar, pozostaje tajemnicą. Jednak to, że tak się 

stało, jest faktem niezaprzeczalnym.

Co to oznacza? Kim jest Człowiek, skoro doznał takiego zaszczytu? Nie mogę uwierzyć, 

że nasze istnienie w tym Wszechświecie miałoby być jedynie kaprysem losu, przypadkiem w 

dziejach   Wszechświata,   malutkim   omsknięciem   w   wielkim   kosmicznym   dramacie.   W   zbyt 

wielkim stopniu jesteśmy weń zaangażowani. Gatunek Homo sapiens  jako taki może wiele nie 

znaczyć; jednak to, że na jakiejś planecie istnieją organizmy żywe wyposażone w umysł, jest bez 

wątpienia   faktem   o   podstawowym   znaczeniu.   Oto,   poprzez   istoty   świadome,   Wszechświat 

wytworzył świadomość samego siebie. Świadomość ta nie może być nieistotnym szczegółem, 

bezwartościowym produktem ubocznym ślepych, bezmyślnych sił. 

Naprawdę jesteśmy tu nieprzypadkowo.


Document Outline