background image

LAWRENCE M. KRAUSS

FIZYKA PODRÓŻY 

MIĘDZYGWIEZDNYCH

( Przełożyli: Ewa L. Łokas; Bogumił Bieniok)

background image

PRZEDMOWA

Było ml bardzo miło, że Data zdecydował się zaprosić Newtona, Einsteina i 

mnie na partyjkę pokera na pokładzie kosmicznego statku Enterprise. Miałem okazję 

zdobyć przewagę nad dwoma wielkimi ludźmi grawitacji, zwłaszcza nad Einsteinem, 

który nie wierzył w przypadek, czyli w to, że Bóg gra w kości. Niestety, nie udało mi 

się zabrać ze sobą wygranej, ponieważ musieliśmy porzucić grę z powodu alarmu. 

Kontaktowałem się później ze studiem Paramount, aby zamienić żetony na gotówkę, 

ale jego przedstawiciele nie znali kursu wymiany.

Fantastyka naukowa, do której należy Star Trek, służy nie tylko dobrej 

zabawie, ale także poważniejszym celom, takim jak rozszerzanie ludzkiej wyobraźni. 

Być może nie potrafimy dotrzeć tam, gdzie nie stanęła dotąd ludzka stopa, ale 

możemy spróbować dokonać tego przynajmniej w wyobraźni. Możemy przewidywać 

reakcje ludzkości na przyszły postęp w nauce i spekulować na temat charakteru tego 

postępu. Wymiana myśli między fantastyką naukową a nauką zachodzi w obie strony. 

Fantastyka dostarcza pomysłów, które naukowcy włączają do swoich teorii, ale 

czasami to właśnie nauka stwarza pojęcia, które nie przyszłyby do głowy żadnemu 

autorowi science fiction. Przykładem są czarne dziury, do których rozgłosu walnie 

przyczyniła się trafna nazwa nadana im przez Johna Archibalda Wheelera. O 

„zamarzniętych gwiazdach” lub „obiektach całkowicie zapadniętych grawitacyjnie”, 

jak początkowo nazywano czarne dziury, nie napisano by zapewne nawet połowy 

tego, co mieliśmy okazję przeczytać.

Zarówno Stor Trek, jak i inne utwory fantastycznonaukowe, poświęcają 

szczególnie dużo uwagi podróżom z prędkościami ponadświetlnymi. Rzeczywiście, 

trudno wyobrazić sobie bez nich fabułę Star Trek. Gdyby Enterprise mógł 

przemieszczać się jedynie z prędkościami choćby niewiele mniejszymi od prędkości 

światła, podróż do środka Galaktyki i z powrotem trwałaby dla załogi tylko kilka lat, 

ale na Ziemi upłynęłoby w tym czasie 80 tysięcy lat. Nie byłoby mowy o ponownym 

spotkaniu z rodziną!

Na szczęście ogólna teoria względności Einsteina stwarza możliwość obejścia 

tej trudności: można zakrzywić czasoprzestrzeń i stworzyć drogę na skróty między 

miejscami, które chce się odwiedzić. Mimo pojawiających się wtedy problemów z 

ujemną energią, takie zakrzywianie czasoprzestrzeni może być dla nas w przyszłości 

wykonalne. Jak dotąd nie prowadzono w tej dziedzinie zbyt wielu poważnych badań, 

background image

po części, jak sądzę, dlatego, że za bardzo przypomina to fantastykę naukową. Jedną 

z konsekwencji szybkich podróży międzygwiezdnych byłaby możliwość podróży 

wstecz w czasie. Można sobie jednak wyobrazić krzyk, jaki podniosłaby opinia 

publiczna w obronie pieniędzy podatników, gdyby ogłoszono, że rządowe agendy 

wspierają finansowo badania nad podróżami w czasie. Naukowcy pracujący w tej 

dziedzinie muszą zatem ukrywać swoje prawdziwe zainteresowania, używając 

technicznych terminów, takich jak „zamknięte krzywe czasowe”, które oznaczają po 

prostu podróże w czasie. Jednakże dzisiejsza fantastyka naukowa staje się często 

naukowym faktem jutra. Fizyka leżąca u podstaw Star Trek jest niewątpliwie warta 

zbadania. Ograniczenie poszukiwań do spraw czysto ziemskich byłoby równoznaczne 

z narzucaniem ograniczeń ludzkiemu duchowi.

STEPHEN HAWKING

background image

WSTĘP

Dlaczego zajmując się fizyką podróży międzygwiezdnych, zagłębimy się w 

świat Stor Trek? Dzieło Gene'a Rodden-berry'ego jest przecież fantastyką i nie 

przedstawia faktów naukowych. Wiele cudów techniki w tym serialu odwołuje się 

więc z konieczności do pojęć, które mogą być niewłaściwie zdefiniowane lub w inny 

sposób pozostają w sprzeczności z naszą obecną wiedzą o Wszechświecie. Nie 

chciałem napisać książki poświęconej tylko wyliczeniu kwestii, w których twórcy 

Star Trek nie mieli racji.

Nie mogłem jednak uwolnić się od myśli o tej książce. Przyznam się, że tak 

naprawdę oczarował mnie transporter. Myślenie o tym, jakim wyzwaniom należałoby 

sprostać tworząc taką fantastyczną technologię, zmusza do rozważenia szerokiego 

wachlarza tematów: od komputerów i przekazu informacji po zagadnienia fizyki 

cząstek elementarnych, mechaniki kwantowej, fizyki jądrowej, budowy teleskopów, 

zawiłości biologii, a nawet problem istnienia ludzkiej duszy! Do tego doszły jeszcze 

takie pojęcia, jak zakrzywiona czasoprzestrzeń i podróże w czasie, i tak temat ten 

wciągnął mnie bez reszty.

Wkrótce zdałem sobie sprawę, że to, co było dla mnie tak fascynujące, bliskie 

jest temu, co niezmiennie pociąga dzisiejszych wielbicieli Star Trek, prawie 

trzydzieści lat po wyemitowaniu pierwszego odcinka serialu. Tym czymś, jak to ujął 

Q, wszechmocny żartowniś ze Star Trek, jest „badanie nieznanych możliwości 

istnienia”. Q zapewne zgodziłby się ze mną, że samo wyobrażanie sobie tych 

możliwości to już dobra zabawa.

W przedmowie do tej książki Stephen Hawking stwierdza, że fantastyka 

naukowa pomaga rozwijać ludzką wyobraźnię. Rzeczywiście, badanie 

nieskończonych możliwości, jakie niesie przyszłość - łącznie ze światem, w którym, 

przezwyciężywszy napięcia międzynarodowe i uprzedzenia rasowe, ludzkość 

wyrusza, by w pokoju badać Wszechświat -jest częścią nie słabnącego powodzenia 

Stor Trek. Ponieważ wydaje mi się to istotną cechą cudu współczesnej fizyki, na tych 

właśnie możliwościach postanowiłem się skoncentrować w niniejszej książce.

Jak wynika z przeprowadzonych przeze mnie pewnego dnia nieformalnych 

badań w trakcie spaceru po miasteczku uniwersyteckim, liczba ludzi w Stanach 

Zjednoczonych, którzy nie znają wyrażenia „prześlij mnie, Scotty”, jest w zasadzie 

background image

porównywalna z liczbą ludzi, którzy nigdy nie słyszeli o ketchupie. Jeśli weźmiemy 

pod uwagę, że wystawa na temat statku Enterprise, zorganizowana przez Smithsonian 

Institution w Waszyngtonie, cieszyła się największym powodzeniem w całej historii 

tamtejszego Muzeum Lotnictwa i Lotów Kosmicznych -większym nawet, niż 

pokazywany tam prawdziwy statek kosmiczny - staje się oczywiste, iż Star Trek jest 

dla wielu ludzi symbolem zaciekawienia Wszechświatem. Czy istnieje lepszy 

kontekst, w którym można by przedstawić jedne z najciekawszych teorii fizyki dnia 

dzisiejszego i wskazać, w jakim kierunku podąży fizyka jutra? Mam nadzieję, że ta 

podróż będzie dla czytelników tej książki równie fascynująca, jak dla mnie.

Szerokiej drogi!

background image

CZĘŚĆ I

KOSMICZNY POKER

W części tej fizyka amortyzatorów bezwładności

i wiązek holowniczych przeciera szlak dla podróży w czasie,

napędu czasoprzestrzennego, deflektorów,

tuneli czasoprzestrzennych i innych osobliwości czasoprzestrzeni.

background image

ROZDZIAŁ  I

OTWARCIE NEWTONA

Gdziekolwiek pójdziesz, tam będziesz.

Z tablicy na statku Exctlsior.

Star Trek VI: Nieznany kraj

(prawdopodobnie zapożyczenie z Przygód Buckaroo Banzai)

Znajdujesz się za sterem statku kosmicznego Defiant (NCC-1764), krążącego 

właśnie po orbicie wokół planety Iconia, w pobliżu strefy neutralnej. Masz spotkać 

się na drugim końcu tego układu słonecznego ze statkiem będącym składem części 

zamiennych, by zdobyć części potrzebne do zreperowania głównych cewek 

zasilających transporter. Nie musisz rozwijać prędkości czasoprzestrzennych; 

ustawiasz tylko na pełną moc silnik pulsacyjny, aby spokojnie podróżować z 

prędkością równą połowie prędkości światła. Powinno to wystarczyć do osiągnięcia 

celu w ciągu kilku godzin; w tym czasie będziesz mógł zaktualizować dziennik 

pokładowy. W miarę oddalania się od orbity zaczynasz jednak odczuwać silny ucisk 

w klatce piersiowej. Ręce ci ciążą i przyklejasz się do fotela. Twoje usta zamierają w 

grymasie, masz wrażenie, że za chwilę oczy wyskoczą ci z orbit, a płynąca w twoim 

ciele krew nie chce dochodzić do głowy. Powoli tracisz świadomość... i w ciągu kilku 

minut umierasz.

Co się stało? Nie są to pierwsze oznaki międzyfazowego znoszenia 

przestrzennego, które później obejmie cały statek, ani atak ukrytego dotąd statku 

romulańskiego. Padłeś ofiarą czegoś znacznie potężniejszego. Pomysłowi twórcy 

serialu Star Trek, od których jesteś uzależniony, nie wynaleźli jeszcze amortyzatorów 

bezwładności; urządzenia te dopiero później zostaną wprowadzone do serialu. 

Zostałeś pokonany przez coś tak zwykłego, jak prawa ruchu Izaaka Newtona, o 

których uczymy się w szkole, lecz zazwyczaj szybko zapominamy.

Już słyszę głosy trekkerów: „Ale beznadzieja! Nie częstuj mnie Newtonem. 

Opowiedz mi o czymś naprawdę interesującym, na przykład jak działa napęd 

czasoprzestrzenny lub co to za błysk pojawia się przy osiąganiu prędkości 

czasoprzestrzennych (czy przypomina uderzenie dźwiękowe przy przekraczaniu 

prędkości dźwięku?), albo co to takiego ten kryształ dwulitu?” W tej chwili mogę 

jedynie powiedzieć, że dojdziemy i do tego. Podróżowanie po świecie Stor Trek 

background image

wiąże się z najbardziej niezwykłymi pojęciami w fizyce. Zetkniemy się z wieloma 

różnymi problemami, zanim będziemy mogli zadać najbardziej fundamentalne 

pytanie związane ze Star Trek: czy coś z tego może zdarzyć się naprawdę, a jeśli tak, 

to w jaki sposób?

Zanim udamy się tam, gdzie nikt jeszcze nie dotarł - zanim nawet wyjdziemy 

z Kwatery Głównej Gwiezdnej Floty - musimy stawić czoło tym samym 

zagadnieniom, z którymi ponad trzysta lat temu zmagali się Galileusz i Newton. W 

przeciwnym razie nigdy nie uda nam się rozstrzygnąć kosmicznego pytania, 

tkwiącego u źródeł wizji Gene'a Roddenberry'ego, twórcy Star Trek: co, na podstawie 

współczesnej nauki, możemy powiedzieć na temat przyszłości naszej cywilizacji? 

Pytanie to leży u podstaw tej książki.

Każdy, kto kiedykolwiek znajdował się w samolocie lub szybkim 

samochodzie, zna uczucie wgniatania w fotel, gdy pojazd rusza z dużym 

przyspieszeniem. Zjawisko to jeszcze silniej daje się odczuć na pokładzie statku 

kosmicznego. Reakcje syntezy w silniku pulsacyjnym wytwarzają olbrzymie 

ciśnienia, które wypychają z dużymi prędkościami gazy i promieniowanie ze statku. 

To właśnie siła reakcji wywierana na silniki przez uciekający gaz i promieniowanie 

powoduje „odrzut” w przód. Ponieważ statek jest połączony z silnikami, również 

zostaje „odrzucony”. Także osoba siedząca przy sterach jest popychana do przodu za 

sprawą siły wywieranej przez fotel na ciało, które z kolei działa taką samą siłą na 

fotel.

I tu właśnie tkwi sedno sprawy. Młotek uderzający z dużą prędkością w 

Twoją czaszkę działa z siłą, która może okazać się śmiertelna. Na podobnej zasadzie 

może Cię zabić fotel, na którym siedzisz, jeśli siła, którą zadziała on na Twoje ciało, 

będzie zbyt wielka. Piloci samolotów odrzutowych i statków kosmicznych nazywają 

siły, jakim poddawane są ich ciała w trakcie dużych przyspieszeń (w samolocie lub 

podczas wystrzeliwania statku kosmicznego) siłami G. Mogę je opisać posługując się 

przykładem swoich bolących pleców. Kiedy pracuję na komputerze, zawsze czuję 

nacisk krzesła na pośladki - presję, z którą nauczyłem się żyć (choć, mógłbym dodać, 

moje pośladki reagują na to w bardzo niehigieniczny sposób). Siła działająca na moje 

pośladki ma swoje źródło w grawitacji, która, gdyby nic jej nie przeciwdziałało, 

spowodowałaby mój ruch w kierunku Ziemi. Powstrzymuje mnie przed tym - czyli 

przed upadkiem na podłogę - Ziemia, wywierając skierowaną przeciwnie siłę na 

żelbetonową konstrukcję mojego domu, która działa siłą skierowaną ku górze na 

background image

drewnianą podłogę mojego gabinetu na pierwszym piętrze; z kolei podłoga działa na 

krzesło, wywierające siłę na tę część mojego ciała, która znajduje się z nim w 

kontakcie... Gdyby Ziemia miała dwa razy większą masę, ale taką samą średnicę, 

nacisk wywierany na moje pośladki byłby dwa razy większy. Siły skierowane ku 

górze musiałyby być dwukrotnie większe, aby zrównoważyć siłę grawitacji.

Te same czynniki należy wziąć pod uwagę w przypadku podróży 

kosmicznych. Jeśli siedzisz w fotelu kapitana i wydajesz polecenie przyspieszenia 

statku, musisz wziąć pod uwagę siłę, z jaką będzie na Ciebie oddziaływał fotel. Gdy 

zwiększysz przyspieszenie dwukrotnie, działająca na Ciebie siła również wzrośnie 

dwa razy. Im większe przyspieszenie, tym większa siła. Jedyny problem polega na 

tym, że żaden materiał - a już na pewno nie Twoje ciało - nie wytrzyma działania siły 

potrzebnej do przyspieszenia statku do prędkości pulsacyjnych.

Ten sam problem pojawia się wielokrotnie w serialu Stor Trek, nawet 

wówczas, gdy akcja filmu dzieje się na Ziemi. Na początku Star Trek V: Ostateczna 

granica James Kirk, bawiący na wakacjach w Parku Narodowym Yosemite, wspina 

się bez asekuracji. Nagle potyka się i spada. Spock, który ma na sobie buty rakietowe, 

pędzi na ratunek i chwyta kapitana, gdy ten znajduje się już metr czy dwa nad ziemią. 

Niestety, jest to jeden z tych przypadków, kiedy rozwiązanie może być tak samo 

fatalne w skutkach, jak sam problem. To właśnie proces hamowania na dystansie 

kilku centymetrów może być śmiercionośny, niezależnie od tego, czy spada się na 

Ziemię czy w objęcia Spocka Vulcana.

Zanim jeszcze pojawią się siły reakcji, które rozerwą lub połamią Twoje ciało, 

na scenę wkroczą inne poważne fizjologiczne problemy. Co najważniejsze, Twoje 

serce nie będzie już mogło pompować krwi wystarczająco silnie, aby docierała ona do 

głowy. Dlatego właśnie piloci wojskowi czasami tracą świadomość w trakcie 

wykonywania manewrów wymagających dużych przyspieszeń. Aby temu zapobiec, 

wynaleziono nawet specjalne skafandry wymuszające przepływ krwi z nóg pilotów. 

Te zaburzenia fizjologiczne są jednym z czynników, które należy wziąć pod uwagę 

przy określaniu, jak wielkie może być przyspieszenie współczesnego statku 

kosmicznego. Dlatego też NASA nigdy nie wystrzeliła na orbitę ludzi z wielkiej 

armaty, jak proponował Juliusz Verne w powieści Podróż na Księżyc.

Jeśli chcę przyspieszyć rakietę od stanu spoczynku do, powiedzmy, 150 tyś. 

Km/s, czyli do połowy prędkości światła, muszę to robić stopniowo - tak, by moje 

ciało nie uległo rozerwaniu. Abym uniknął wgniatania w fotel z siłą większą niż 3G, 

background image

moje przyspieszenie nie może przekroczyć trzykrotnej wartości przyspieszenia, z 

jakim przedmioty spadają na ziemię. W tym tempie osiągnięcie połowy prędkości 

światła zajęłoby około 5 milionów sekund, czyli blisko 2,5 miesiąca! Nie byłoby to 

ekscytujące wydarzenie.

Wkrótce po wyprodukowaniu pierwszego statku kosmicznego klasy 

konstytucyjnej - Enterprise (NCC-1701) - autorzy Star Trek musieli odpowiedzieć na 

krytykę dotyczącą tego, że olbrzymie przyspieszenia na pokładzie statku 

kosmicznego powinny zmieniać jego załogę w marmoladę. Aby rozwiązać ten 

problem, wynaleźli „amortyzatory bezwładności”, rodzaj kosmicznych pochłaniaczy 

uderzenia, bardzo przemyślne urządzenie, zaprojektowane w celu rozwiązania tego 

dokuczliwego problemu.

Amortyzatory bezwładności najłatwiej zauważyć, gdy ich nie ma. Na przykład 

statek Enterprise ledwie uniknął zniszczenia po utracie kontroli nad swoimi 

amortyzatorami bezwładności, kiedy elektroniczne formy życia, znane jako Nanici, 

zaczęły, w ramach swojego procesu ewolucyjnego, chrupać pamięć centralnego 

komputera statku. Łatwo zauważyć, że prawie każdą katastrofę Enterprise (która 

zdarza się zwykle w najmniej odpowiedniej chwili) poprzedza awaria amortyzatorów 

bezwładności. Skutki podobnej utraty kontroli na romulan-skim statku Wdrbird 

umożliwiły nam przekonanie się, że krew Romulan jest zielona.

Niestety, podobnie jak w przypadku większości technologii we wszechświecie 

Stor Trek, o wiele łatwiej jest opisać problem, który rozwiązują amortyzatory 

bezwładności, niż dokładnie wyjaśnić, jak mogłyby one działać. Pierwsze Prawo 

Fizyki Star Trek musi więc brzmieć: im bardziej podstawowy jest problem, który 

chce się rozwiązać, tym bardziej niezwykłe musi być rozwiązanie. Przyczyną, dla 

której doszliśmy tak daleko i dla której możemy w ogóle spodziewać się przyszłości 

takiej, jaką pokazano w Star Trek, jest specyfika fizyki, która rozwija się odwołując 

się do własnych podstaw. Przyszłość będzie więc musiała poradzić sobie nie tylko z 

danym problemem w fizyce, ale także z każdym fragmentem wiedzy fizycznej, który 

wiąże się z tym właśnie problemem. Postęp w fizyce dokonuje się nie dzięki 

rewolucjom, które znoszą wszystko, co było przedtem, ale drogą ewolucji, która 

wykorzystuje to, co najlepsze w dotychczasowym rozumieniu świata. Prawa Newtona 

będą tak samo prawdziwe za milion lat jak obecnie, bez względu na to, jak dalece 

rozszerzymy granice nauki. Upuszczona piłka zawsze spadnie na ziemię. Jeśli będę 

siedział przy biurku i pisał przez całą wieczność, moje pośladki zawsze będą tak samo 

background image

cierpiały.

Czego by nie powiedzieć, nie byłoby w porządku, gdybyśmy zostawili 

amortyzatory bezwładności bez jakiegokolwiek dokładniejszego opisu ich działania. 

Jak już wcześniej stwierdziłem, muszą one tworzyć wewnątrz statku kosmicznego 

sztuczny świat, w którym znika siła reakcji na siłę przyspieszającą. Przedmioty 

znajdujące się wewnątrz statku zostają „oszukane”; mają zachowywać się tak, jak 

gdyby nie było przyspieszenia. Opisywałem już, w jaki sposób przyspieszenie imituje 

grawitację. Związek ten, który stał się podstawą ogólnej teorii względności Einsteina, 

jest o wiele głębszy, niż mogłoby się wydawać na pierwszy rzut oka. Amortyzatory 

bezwładności mogą więc działać tylko na jednej zasadzie: muszą wytwarzać 

wewnątrz statku sztuczne pole grawitacyjne, które znosi siły reakcji.

Nawet, jeśli przyjmiemy tę możliwość, pozostają jeszcze inne praktyczne 

sprawy, jak choćby to, że włączenie się amortyzatorów bezwładności po pojawieniu 

się nieoczekiwanego impulsu wymaga czasu. Kiedy na przykład Enterprise został 

uwięziony w pętli przyczynowej przez Bozemana, gdy ten ostatni wynurzał się z 

zakrzywienia czasowego, załoga została rozrzucona po całym obszarze mostka 

(zanim jeszcze nastąpiła awaria napędu czasoprzestrzennego i amortyzatorów). W 

opisie technicznym Enterprise wyczytałem, że czas reakcji amortyzatorów 

bezwładności wynosi około 60 milisekund. Wydaje się on krótki, ale takie opóźnienie 

podczas zaprogramowanych okresów przyspieszania wystarczyłoby, żeby Cię zabić. 

Aby się o tym przekonać, pomyśl, ile czasu potrzebuje spadający z wysoka młotek, 

by rozbić ci głowę, lub ziemia, by zabić człowieka spadającego ze stromego urwiska 

w Parku Narodowym Yosemite? Wystarczy pamiętać, że zderzenie z prędkością 20 

km/h jest równoważne kolizji biegacza z murem z cegieł! Lepiej więc, żeby 

amortyzatory bezwładności miały krótki czas reakcji. Kilku znajomych trekkerów 

zauważyło, że kiedy statek zostaje uderzony, nikogo z załogi nie odrzuca na odległość

większą niż parę metrów.

Zanim opuścimy znany świat fizyki klasycznej, chciałbym wspomnieć o 

innym cudzie technologii, który, aby działać, musi brać pod uwagę prawa Newtona, a 

mianowicie o wiązce holowniczej na Enterprise. Odegrała ona pewną rolę w czasie 

ratowania kolonii Genomów na Moabie IV, odchylając zbliżający się fragment jądra 

gwiazdy, a także w podobnej próbie, (choć zakończonej niepowodzeniem) uratowania 

Bre'ela IV przez skierowanie planetoidalnego księżyca z powrotem na orbitę. Na 

pierwszy rzut oka wiązka holownicza wygląda prosto - mniej więcej tak jak 

background image

niewidzialna lina lub wędka - nawet jeśli wywierana przez nią siła jest niezwykła. 

Podobnie jak mocna lina, wiązka holownicza świetnie sobie radzi z wciąganiem 

wahadłowca, holowaniem innego pojazdu lub zapobieganiem ucieczce wrogiego 

statku kosmicznego. Jedyny problem polega na tym, że kiedy ciągniemy coś na linie, 

musimy się uczepić Ziemi lub innego ciężkiego przedmiotu. Każdy, kto kiedykolwiek 

jeździł na łyżwach, wie, co się dzieje, gdy znajdujemy się na lodzie i próbujemy 

odepchnąć kogoś od siebie. Udaje nam się rozdzielić, ale bez punktu zaczepienia 

stajemy się bezradną ofiarą własnej bezwładności.

Ta właśnie zasada skłoniła kapitana Jeana-Luca Picarda w odcinku pod 

tytułem Bitwa do wydania polecenia porucznikowi Rikerowi, aby wyłączył wiązkę 

holowniczą; Picard zauważył, że holowany statek będzie przemieszczał się obok nich 

dzięki swojemu własnemu pędowi - własnej bezwładności. Na tej samej zasadzie, 

gdyby Enterprise spróbował użyć wiązki holowniczej do oddalenia od siebie 

Stargazera, powstała siła popchnęłaby Enterprise do tyłu tak samo, jak Stargazera do 

przodu.

To zjawisko ma duży wpływ na sposób, w jaki obecnie pracuje się w 

przestrzeni kosmicznej. Załóżmy na przykład, że jesteś astronautą, który ma dokręcić 

śrubę w Kosmicznym Teleskopie Hubble'a. Jeśli zabierzesz ze sobą w tym celu 

śrubokręt elektryczny, po dotarciu na miejsce może Cię czekać niemiła 

niespodzianka. To, że uda Ci się dokręcić śrubę, jest tak samo prawdopodobne jak to, 

że Ty sam zaczniesz się wtedy obracać.

Dzieje się tak dlatego, że teleskop Hubble'a jest o wiele cięższy od Ciebie. 

Kiedy śrubokręt działa pewną silą na śrubę, silą reakcji, jaką odczuwasz, obróci 

raczej Ciebie niż śrubę, zwłaszcza Jeśli śruba trzyma się dość mocno. Jeśli jednak - 

podobnie jak zabójcy Kanclerza Gorkona - jesteś szczęśliwym posiadaczem butów 

grawitacyjnych, które utrzymują Cię pewnie na każdym podłożu, możesz się 

przemieszczać tak samo skutecznie jak na Ziemi.

Można też zobaczyć, co się stanie, gdy Enterprise spróbuje przyciągnąć do 

siebie inny statek kosmiczny. O ile Enterprise nie jest znacznie cięższy od tego statku, 

po włączeniu się wiązki holowniczej to on będzie się przysuwał do drugiego obiektu, 

a nie odwrotnie. W przestrzeni kosmicznej to rozróżnienie nie ma wielkiego 

znaczenia. Bez znajdującego się w pobliżu układu odniesienia skąd możemy 

wiedzieć, kto kogo ciągnie? Jeżeli znajdujesz się jednak na planecie tak pechowej, jak 

Moab IV, na drodze zagubionej gwiazdy, to nie jest bez znaczenia., czy Enterprise 

background image

odsuwa na bok gwiazdę, czy gwiazda statek.

Jeden z moich znajomych trekkerów utrzymuje, że sposób obejścia tego 

problemu został już pośrednio zasugerowany przynajmniej w jednym odcinku: gdyby 

Enterprise użył swoich silników pulsacyjnych, kiedy włączona jest wiązka 

holownicza, działając w przeciwnym kierunku siłą swoich silników mógłby 

skompensować wywieraną nart siłę, gdy jest ciągnięty lub na coś pchany. Jak twierdzi 

ów trekker, powiedziano gdzieś, że aby wiązka holownicza mogła działać, musi być 

uruchomiony napęd pulsacyjny. Nigdy jednak nie zauważyłem, by Kirk lub Picard 

wydawali polecenie włączenia silników pulsacyjnych w trakcie używania wiązki 

holowniczej. Poza tym nie sądzę, aby społeczeństwo, które potrafi zaprojektować i 

zbudować amortyzatory bezwładności, potrzebowało takich siłowych rozwiązań. 

Pamiętając o tym, że Geordi LaForge musiał zakrzywić czasoprzestrzeń, aby 

spróbować cofnąć księżyc Bre'ela IV, sądzę, że ostrożna - choć na razie nieosiągalna - 

manipulacja przestrzenią i czasem równie skutecznie pomogłaby wykonać to zadanie. 

Aby lepiej to zrozumieć, musimy użyć amortyzatorów bezwładności i przeskoczyć 

jak najszybciej do współczesnego świata zakrzywionej przestrzeni i czasu.

background image

ROZDZIAŁ 2

EINSTEIN PODNOSI STAWKĘ

Pewna młoda dama imieniem Aurora

Gdy nie pędziła szybciej od światła, była chora.

Kiedy razu pewnego w podróż wyjechała,

Na relatywny sposób się zdecydowała

i powróciła poprzedniego wieczora.

ANONIM

„Czas, ostateczna granica” - tak lub podobnie powinien zaczynać się każdy 

odcinek serialu Star Trek. Trzydzieści lat temu, w klasycznym odcinku Jutro będzie 

wczoraj, Enterprise rozpoczął podróże w czasie. (Właściwie już pod koniec 

wcześniejszego odcinka Nagi czas statek zostaje przerzucony w czasie o trzy dni 

wstecz - jest to jednak podróż tylko w jedną stronę). W wyniku bliskiego spotkania z 

„czarną gwiazdą” (termin „czarna dziura” nie funkcjonował jeszcze wtedy w kulturze 

masowej) statek przenosi się na Ziemię XX wieku. Dziś pojęcia tak niezwykłe, jak 

„tunele czasoprzestrzenne” i „osobliwości kwantowe”, pojawiają się regularnie w 

odcinkach najnowszej serii Star Trek: Voyager. Dzięki Albertowi Einsteinowi i tym, 

którzy poszli jego śladem, tkanina czasoprzestrzeni utkana jest z dramatów.

Chociaż każdy z nas jest podróżnikiem w czasie, przekonanie, iż jesteśmy 

skazani na podróż tylko w jednym kierunku -w przyszłość - podnosi historię 

ludzkości do rangi tragedii. Czego byśmy nie dali za możliwość podróży w 

przeszłość, ponownego przeżycia chwil chwały, naprawienia błędów, spotkania 

historycznych bohaterów, a może nawet uniknięcia katastrof lub po prostu 

powtórnego przeżycia młodości, korzystając z nabytej z wiekiem mądrości? Podróże 

w czasie przychodzą nam na myśl za każdym razem, gdy spoglądamy w gwiazdy, ale 

wydaje się, że jesteśmy na stałe uwięzieni w teraźniejszości. Pytanie, które inspiruje 

nie tylko twórczość dramatyczną, ale i zadziwiająco dużą część badań we 

współczesnej fizyce teoretycznej, można sformułować następująco: Jesteśmy czy nie 

Jesteśmy więźniami w kosmicznym pociągu czasu, który nie może zmieniać toru?

Początki nowoczesnego gatunku literackiego, który nazywamy fantastyką 

naukową, są ściśle związane z motywem podróży w czasie. Wczesny utwór Marka 

Twaina Jankes na dworze króla Artura jest bardziej beletrystyką niż fantastyką 

background image

naukową, mimo że treść książki obraca się wokół przygód wynikających z 

przeniesienia nieszczęsnego Amerykanina do średniowiecznej Anglii. (Być może 

Twain nie zastanawiał się szczególnie nad naukowymi aspektami podróży w czasie, 

gdyż obiecał Picardowi na pokładzie Enterprise, że nie opisze swojego spojrzenia w 

przyszłość, kiedy już powróci do dziewiętnastego stulecia, przeskakując przez 

szczelinę czasową na Devidii II, w odcinku Strzałka czasu). Dopiero niezwykłe dzieło 

H. G. Wellsa Wehikuł czasu stworzyło paradygmat, na którym oparł się Stor Trek, 

Wells był absolwentem Imperiał College of Science and Technology w Londynie i 

rozmowy jego bohaterów, podobnie jak wypowiedzi załogi Enterprise, przesiąknięte 

są językiem naukowym.

Te odcinki serialu Star Trek, które opowiadają o podróżach w czasie, są 

niewątpliwie najbardziej twórcze i zmuszają do myślenia. W pierwszych dwóch 

seriach doliczyłem się ponad dwudziestu dwóch odcinków zajmujących się tym 

tematem. Podobnie jest w trzech pełnometrażowych filmach Star Trek oraz w 

odcinkach z serii Voyager i Stacja kosmiczna, które wyemitowano do chwili obecnej. 

Jeśli chodzi o Stor Trek, prawdopodobnie najbardziej fascynującym aspektem 

podróży w czasie jest niechęć do łamania Najwyższego Zakazu. Załogi Gwiezdnej 

Flory przestrzegane są przed ingerencją w normalny historyczny rozwój obcych 

cywilizacji, które odwiedzają. Cofnięcie się w czasie umożliwia jednak całkowitą 

likwidację teraźniejszości. Może nawet całkowicie zniweczyć historię!

Zarówno w literaturze fantastycznonaukowej, jak i w fizyce, pojawia się ten 

sam słynny paradoks: co się stanie, jeśli cofniesz się w czasie i zabijesz swoją matkę 

przed własnymi narodzinami? Niewątpliwie przestaniesz wtedy istnieć. Ale jeśli 

przestaniesz istnieć, nie będziesz mógł wrócić i zabić swojej matki. Skoro zaś nie 

zabiłeś swojej matki, nie przestałeś istnieć. Innymi słowy, jeśli istniejesz, to nie 

możesz istnieć, a jeśli nie istniejesz, to musisz istnieć.

Są jeszcze inne, mniej oczywiste, ale równie dramatyczne i zdumiewające 

pytania, które piętrzą się, gdy zaczynamy myśleć o podróżach w czasie. Na przykład 

w zakończeniu Strzałki czasu Picard pomysłowo wysyła wiadomość z XIX do XXIV 

wieku - wprowadza kod binarny do głowy Daty, wiedząc, że zostanie ona 

odnaleziona i połączona z jego ciałem prawie pięć wieków później. Patrzymy, jak 

wpisuje wiadomość, a następnie widzimy LaForge'a, który w XXIV stuleciu 

przytwierdza Dacie głowę. Widzowi te wydarzenia wydają się jednoczesne, ale takie 

nie są; po tym, jak Picard wprowadza wiadomość do głowy Daty, leży ona jeszcze 

background image

przez pół tysiąclecia. Ale jeśli badam głowę Daty w XXIV wieku, a Picard nie odbył 

jeszcze podróży w przeszłość, aby zmienić przyszłość, czy mógłbym taką wiadomość 

odczytać? Można by się spodziewać, że jeśli Picard nie odbył jeszcze podróży, nie 

mogła ona mieć wpływu na głowę Daty. Jednak działania zmieniające 

oprogramowanie Daty zostały podjęte w XIX wieku, bez względu na to, kiedy Picard 

wyruszył w podróż w czasie, aby je wykonać. A więc to już się stało, nawet jeśli 

Picard jeszcze nie wyruszył! W ten sposób przyczyna w XIX wieku (wprowadzanie 

kodu przez Picarda) może wywołać efekt w dwudziestym czwartym stuleciu (zmiana 

obwodów elektrycznych Daty), zanim przyczyna w XXIV wieku (wyprawa Picarda) 

wywoła skutek w dziewiętnastym stuleciu (przybycie Picarda do jaskini, gdzie 

znajduje się głowa Daty), który pozwoli, aby początkowa przyczyna (wprowadzenie 

kodu przez Picarda) w ogóle miała miejsce.

Jeśli powyższe rozumowanie jest niejasne, to co powiedzieć o największym ze 

wszystkich paradoksów czasowych, który pojawia się w ostatnim odcinku serii Stor 

Trek: Następne pokolenie.

Picard zapoczątkowuje w nim łańcuch wydarzeń, które cofną się w czasie i 

unicestwią nie tylko jego przodków, ale i całe życie na Ziemi. Dokładniej, 

„podprzestrzenne zakrzywienie czasu” związane z „antyczasem” narasta wstecz w 

czasie, pochłaniając w końcu zbudowaną z aminokwasów protoplazmę na młodej 

Ziemi, zanim jeszcze powstaną pierwsze proteiny - cegiełki, z których zbudowane są 

żywe organizmy. Jest to jaskrawy przykład skutku powodującego przyczynę. 

Zakrzywienie czasu powstaje w przyszłości. Gdyby w odległej przeszłości 

podprzestrzenne zakrzywienie czasu zniszczyło pierwsze żywe organizmy na Ziemi, 

życie nigdy nie mogłoby się rozwinąć i zbudować cywilizacji zdolnej do wytwarzania 

takich zakrzywień w przyszłości!

Popularnym wśród wielu fizyków typowym rozwiązaniem takich paradoksów 

jest przyjęcie a priori, że w racjonalnym wszechświecie, podobnym do tego, w 

którym żyjemy, takie wydarzenia są niemożliwe. Problem polega na tym, że równania 

ogólnej teorii względności Einsteina nie tylko nie wykluczają takich możliwości, lecz 

wręcz je przewidują.

W ciągu trzydziestu lat badań nad równaniami ogólnej teorii względności 

znaleziono rozwiązanie, w którym wyraźnie pojawia się możliwość podróży w czasie. 

Jego autorem jest słynny matematyk Kurt Godel, który pracował razem z Einsteinem 

w Institute for Advanced Study w Princeton. Mówiąc językiem Star Trek, 

background image

rozwiązanie to pozwala na stworzenie „czasowej pętli przyczynowej”, analogicznej 

do tej, w jaką został złapany Enterprise po ataku Bozemana. Bardziej sucha 

terminologia współczesnej fizyki określa to zjawisko jako „zamkniętą krzywą 

czasową”. Jakkolwiek je nazwiemy, wynika z niego możliwość podróżowania w 

czasie w obie strony i powracania do punktu wyjścia zarówno w przestrzeni, jak i w 

czasie! Rozwiązanie Godła dotyczy wszechświata, który, w przeciwieństwie do 

znanego nam, nie rozszerza się, ale jednostajnie obraca. Okazuje się, że w takim 

wszechświecie w zasadzie można cofnąć się w czasie, zataczając jedynie duże koło w 

przestrzeni. Choć ten hipotetyczny wszechświat dramatycznie różni się od naszego, 

sam fakt, że takie rozwiązanie w ogóle istnieje, wskazuje jasno, że ogólna teoria 

względności dopuszcza podróże w czasie.

Istnieje pewna maksyma o Wszechświecie, którą zawsze przekazuję moim 

studentom: To, co nie jest jawnie zakazane, na pewno się zdarzy, lub, jak powiedział 

Data w odcinku Wszechświaty równolegle, mając na myśli prawa mechaniki 

kwantowej: „wszystkie zjawiska, które mogą zajść, zachodzą”. Sądzę, że w tym 

duchu należy podchodzić do praw fizyki rządzących światem Star Trek. Powinniśmy 

rozróżniać nie miedzy tym, co praktyczne, a tym, co niepraktyczne, lecz między tym, 

co możliwe, a tym, co niemożliwe.

Fakt ten oczywiście nie pozostał nie zauważony przez samego Einsteina, który 

napisał: „Problem [rozwiązania] Kurta Godła [dopuszczającego podróże w czasie] 

niepokoił mnie już podczas tworzenia ogólnej teorii względności i nie udało mi się go 

wyjaśnić. [...] Interesujące będzie rozważenie, czy rozwiązań tych nie należy 

wykluczyć ze względów fizycznych”.

Od tej pory wyzwaniem dla fizyków stało się określenie konsekwencji 

istnienia takich „fizycznych powodów”, które wykluczałyby możliwość podróży w 

czasie, przewidywanych przez równania ogólnej teorii względności. Aby 

przedyskutować te problemy, będziemy musieli wyjść poza klasyczny świat teorii 

względności i wkroczyć w mroczny obszar, gdzie mechanika kwantowa decyduje o 

naturze przestrzeni i czasu. Po drodze, podobnie jak Enterprise, napotkamy czarne 

dziury i tunele czasoprzestrzenne. Najpierw jednak musimy przenieść się w czasie do 

drugiej połowy XIX wieku.

Mariaż przestrzeni i czasu, który ogłosił nadejście ery nowoczesności, 

rozpoczął się wraz z połączeniem zjawisk elektryczności i magnetyzmu w 1864 roku. 

To niezwykłe osiągnięcie intelektualne, u podstaw którego legł wspólny wysiłek 

background image

takich wielkich fizyków, jak Andre-Marie Ampere, Charles-Augustin de Coulomb i 

Michael Faraday, zostało uwieńczone przez błyskotliwego fizyka brytyjskiego 

Jamesa Gierka Maxwella. Odkrył on nie tylko, że prawa elektryczności i magnetyzmu 

są ze sobą ściśle związane, ale że wynika z nich istnienie fal elektromagnetycznych, 

które powinny poruszać się w przestrzeni z określoną prędkością, wynikającą ze 

znanych własności elektryczności i magnetyzmu. Prędkość ta okazała się równa 

prędkości światła, którą zmierzono już wcześniej.

Od czasów Newtona spierano się o to, czy światło jest falą - to znaczy 

przemieszczającym się w pewnym ośrodku zaburzeniem - czy też cząstką, która 

podróżuje niezależnie od obecności ośrodka. Odkrycie fal elektromagnetycznych i 

tego, że poruszają się one z prędkością światła, zakończyło tę debatę: światło okazało 

się falą elektromagnetyczną.

Każda fala jest po prostu przemieszczającym się zaburzeniem. Jeśli światło to 

zaburzenie elektromagnetyczne, czym w takim razie jest ośrodek, który ulega 

zaburzeniu, gdy rozchodzi się w nim fala? Pod koniec XIX wieku wiele uwagi 

poświęcono temu problemowi. Ośrodek ów miał już swoją nazwę od czasów 

Arystotelesa. Nazywano go eterem, ale wszystkie próby jego bezpośredniego 

wykrycia kończyły się niepowodzeniem. W roku 1887 Albert A. Michelson i Edward 

Morley (pracujący w instytucjach, które połączyły się w 1967 roku, tworząc Case 

Western Reserve University - obecne miejsce mojej pracy) przeprowadzili 

eksperyment, gwarantujący wykrycie nie tyle samego eteru, co efektów jego istnienia. 

Ponieważ przypuszczano, że eter wypełnia całą przestrzeń, Ziemia musiała się 

poruszać względem niego. Światło podróżujące w różnych kierunkach względem 

kierunku ruchu Ziemi w eterze powinno zatem wykazywać różnice w prędkości. 

Eksperyment ten uważa się obecnie za jeden z najważniejszych w ubiegłym stuleciu, 

mimo że Michelson i Morley nigdy nie zaobserwowali efektu, którego poszukiwali. 

Właśnie dlatego, że nie udało im się zaobserwować efektu ruchu Ziemi względem 

eteru, pamiętamy dziś ich nazwiska (A. A. Michelson został pierwszym 

amerykańskim laureatem Nagrody Nobla z fizyki za swoje badania eksperymentalne 

nad prędkością światła, a ja czuję się zaszczycony, zajmując obecnie pozycję, którą 

on piastował ponad sto lat temu. Edward Morley zasłynął jako chemik między innymi 

dzięki wyznaczeniu masy atomowej helu).

Negatywny wynik eksperymentu wywołał pewien niepokój wśród fizyków, 

ale, jak w przypadku wielu przełomowych odkryć, z jego implikacji zdawało sobie w 

background image

pełni sprawę bardzo niewielu uczonych, którzy zaczynali już zauważać paradoksy 

związane z teorią elektromagnetyzmu. Mniej więcej w tym czasie pewien uczeń 

szkoły średniej, który miał osiem lat w chwili, gdy Michelson i Morley 

przeprowadzali swój eksperyment, spróbował niezależnie stawić czoło tym 

paradoksom. W 1905 roku, zanim skończył 26 lat, Albert Einstein - bo o nim tu 

mowa - rozwiązał ten problem. Ale jak to zwykle bywa, kiedy fizyka stawia wielkie 

kroki naprzód, wyniki Einsteina stworzyły więcej problemów niż rozwiązały.

Rozwiązanie Einsteina, które stanowi jądro szczególnej teorii względności, 

wynikało z prostego, choć pozornie absurdalnego założenia: jedynym sposobem na 

to, by teoria elektromagnetyzmu Maxwella pozostała spójna, było przyjęcie, że 

obserwowana prędkość światła jest niezależna od prędkości obserwatora względem 

światła. Problem polega na tym, że stwierdzenie to całkowicie przeczy zdrowemu 

rozsądkowi. Jeśli z poruszającego się z prędkością pulsacyjną statku Enterprise 

wypuszczona zostanie sonda, obserwator na pobliskiej planecie zobaczy, jak 

przelatuje ona z prędkością dużo większą niż ta, którą zmierzyłby członek załogi 

Enterprise patrzący przez okno statku. Einstein uświadomił sobie jednak, że teoria 

Maxwella może być nie-sprzeczna tylko wtedy, gdy fale światła zachowują się 

inaczej: jeśli ich prędkość mierzona przez obydwu obserwatorów jest taka sama, 

niezależnie od ich względnego ruchu. Jeśli więc wystrzelę wiązkę fazera z dziobu 

Enterprise i będzie się ona poruszała z prędkością światła w kierunku mostka 

romulanskiego statku Warbird, który sam zbliża się do Enterprise z prędkością 

pulsacyjną równą 3/4 prędkości światła, obserwatorzy na wrogim statku zauważą, że 

wiązka zbliża się do nich dokładnie z prędkością światła, a nie z prędkością l i 3/4 

rażą większą. Tego rodzaju problemy sprawiają trudności wielu trekkerom, którzy 

wyobrażają sobie, że jeżeli Enterprise porusza się z prędkością bliską prędkości 

światła, a inny statek leci w przeciwnym kierunku z podobną prędkością, światło 

wysłane z Enterprise nigdy nie dotrze do drugiego statku (a zatem Enterprise 

pozostanie dla niego niewidoczny). Sprawa wygląda Jednak inaczej; obserwatorzy na 

drugim statku powinni dostrzec, że światło z Enterprise zbliża się do nich z 

prędkością światła.

Nie to odkrycie jednak przyniosło Einsteinowi sławę. Znacznie ważniejsze 

było to, że chciał on badać wynikające z tego spostrzeżenia wnioski, które na 

pierwszy rzut oka wydawały się absurdalne. W naszym codziennym doświadczeniu to 

czas i przestrzeń sprawiają wrażenie absolutnych, natomiast prędkość jest czymś 

background image

względnym: obserwowana prędkość poruszającego się obiektu zależy od tego, jak 

szybko się poruszamy. Kiedy jednak zbliżamy się do prędkości światła, to prędkość 

staje się wielkością absolutną, a więc przestrzeń i czas muszą stać się względne!

Dzieje się tak dlatego, że prędkość definiuje się ściśle jako odległość 

pokonaną w pewnym określonym czasie. Tak więc jedynym sposobem, aby 

poruszający się względem siebie obserwatorzy mogli stwierdzić, że pojedynczy 

promień światła przebywa względem nich w ciągu jednej sekundy tę samą odległość - 

powiedzmy 300 milionów metrów - konieczne jest, aby ich „sekundy” lub ich 

„metry” różniły się między sobą! Okazuje się, że szczególna teoria względności 

wybiera rozwiązanie najgorsze, to znaczy zarówno sekundy, jak i metry stają się 

wielkościami względnymi.

Wychodząc od prostego założenia, że prędkość światła mierzona przez 

różnych obserwatorów jest zawsze taka sama, niezależnie od ich względnego ruchu, 

Einstein wyciągnął następujące wnioski na temat przestrzeni, czasu i materii:

(a) Zdarzenia, które dla danego obserwatora zachodzą w tym samym czasie i 

w dwóch różnych miejscach, nie muszą być równoczesne dla innego obserwatora, 

poruszającego się względem pierwszego. Dla każdego z nich „teraz” znaczy co 

innego. Pojęcia „przed” i „po” są względne dla odległych zdarzeń.

(b) Wszystkie zegary na statkach kosmicznych, które poruszają się względem 

mnie, chodzą wolniej niż mój zegar. Czas zwalnia dla obiektów w ruchu.

(c) Linijki znajdujące się na statkach, które poruszają się względem nas, 

wydają się krótsze, niż gdyby spoczywały w naszym układzie odniesienia. Obiekty, 

ze statkami kosmicznymi włącznie, ulegają skróceniu podczas ruchu.

(d) Wszystkie obiekty mające masę stają się tym cięższe, im szybciej się 

poruszają. Gdy ich prędkość zbliża się do prędkości światła, ich masa staje się 

nieskończona. Innymi słowy, tylko obiekty pozbawione masy, takie jak światło, mogą 

poruszać się z prędkością światła.

Nie będę tu opowiadał o wszystkich wspaniałych pozornych paradoksach, 

jakie pojawiają się w teorii względności. Niech nam wystarczy to, że - czy nam się to 

podoba, czy nie - wszystkie cztery wnioski są prawdziwe, zostały bowiem 

sprawdzone. Na pokład poruszających się z wielkimi prędkościami samolotów 

zabrano zegary atomowe i zaobserwowano, że spóźniają się one po powrocie w 

stosunku do swoich ziemskich odpowiedników. Na całym świecie w laboratoriach 

fizyki cząstek elementarnych konsekwencje szczególnej teorii względności są 

background image

chlebem powszednim eksperymentatorów. Niestabilne cząstki przyspiesza się do 

prędkości bliskich prędkości światła, a ich mierzone czasy życia zwiększają się 

wielokrotnie. Kiedy elektrony, które w spoczynku mają masę 2000 razy mniejszą niż 

protony, przyspieszy się do prędkości bliskich prędkości światła, niosą one pęd 

równoważny pędom ich cięższych kuzynów. Elektron przyspieszony do prędkości 

równej 

0,9999999999999999999999999999999999999999999999999999999999999999 

prędkości światła uderzyłby Cię z taką samą siłą, jak jadąca z przeciętną prędkością 

ciężarówka.

Oczywiście przyczyną, dla której tak trudno jest nam wziąć za dobrą monetę 

wnioski dotyczące względności przestrzeni i czasu, jest to, że żyjemy i poruszamy się 

z prędkościami znacznie mniejszymi niż prędkość światła. Każdy z wymienionych 

efektów staje się zauważalny dopiero wtedy, gdy wchodzą w grę prędkości 

relatywistyczne. Nawet przy prędkości równej połowie prędkości światła zegary 

zwalniają, a linijki kurczą się tylko o około 15%. Na wahadłowcu NASA, który 

okrąża Ziemię z prędkością 8 km/s, zegary chodzą tylko o jedną dziesięciomilionową 

procenta wolniej, niż ich odpowiedniki na powierzchni Ziemi.

W świecie Enterprise lub innego statku kosmicznego, gdzie powszechne są 

duże prędkości, z względnością mielibyśmy jednak do czynienia na co dzień. Można 

sobie wyobrazić trudności w zarządzaniu Federacją, gdy konieczne byłoby 

zsynchronizowanie zegarów na dużym obszarze Galaktyki, zwłaszcza że znaczna 

część tych zegarów poruszałaby się z prędkością bliską prędkości światła. W wyniku 

tego w gwiezdnej flocie przyjęto jako regułę, że normalne manewry, wykonywane 

przy użyciu napędu pulsacyjnego, będą ograniczone do prędkości 0,25c, czyli 1/4 

prędkości światła: marnych 75 tysięcy km/s.

Nawet przy zastosowaniu tej zasady zegary na statkach podróżujących z taką 

prędkością będą zwalniały o około 3% w stosunku do zegarów w Centrum 

Dowodzenia. Oznacza to, że po miesiącu podróży zegary będą opóźnione o prawie 

jeden dzień. Gdyby po takiej podróży Enterprise wrócił do Centrum Dowodzenia, na 

statku byłby piątek, a w bazie sobota. Przypuszczam, że ta niedogodność nie 

sprawiałaby większego problemu niż przestawianie zegarków przy przekraczaniu 

międzynarodowej granicy daty podczas podróży na wschód, choć w tym przypadku 

załoga powróciłaby o jeden dzień młodsza, natomiast w trakcie podróży na wschód i 

z powrotem zyskuje się jeden dzień jadąc w jednym kierunku, a traci się go wracając.

background image

Możemy się teraz przekonać, jak istotny dla Enterprise jest napęd 

czasoprzestrzenny. Pozwala on nie tylko obejść zasadę nieprzekraczalności prędkości 

światła i w ten sposób efektywnie podróżować przez Galaktykę, lecz także uniknąć 

problemów związanych z dylatacją czasu, pojawiającą się, gdy statek porusza się z 

prędkością bliską prędkości światła.

Nie można przecenić tych faktów. Wielu autorów fantastyki naukowej (a tak 

naprawdę wszyscy, którzy marzą o podróżach międzygwiezdnych) traktuje zjawisko 

zwalniania chodu zegarów w miarę zbliżania się do prędkości światła jako otwarcie 

możliwości pokonywania olbrzymich odległości między gwiazdami w czasie życia 

ludzkiego - przynajmniej za życia osób znajdujących się na pokładzie statku 

kosmicznego.

Podróż z prędkością bliską prędkości światła do, powiedzmy, centrum naszej 

Galaktyki zajęłaby ponad 25 tysięcy lat czasu ziemskiego. Dla osób znajdujących się 

na pokładzie statku, gdyby poruszał się on z prędkością dostatecznie bliską prędkości 

światła, podróż ta mogłaby trwać krócej niż 10 lat -czas długi, ale do przyjęcia. 

Jednak nawet gdyby umożliwiło to odbywanie pojedynczych podróży, z pewnością 

nie pozwoliłoby na sprawne zarządzanie federacją cywilizacji rozproszonych po całej 

Galaktyce. Jak słusznie przypuszczali twórcy Star Trek, fakt, że dziesięcioletnia 

podróż Enterprise odpowiadałaby okresowi 25 tysięcy lat w Centrum Dowodzenia, 

zniweczyłby szansę jakiegokolwiek działania mającego na celu zorganizowanie i 

kontrolowanie ruchu wielu takich statków kosmicznych. Jest więc niezwykle istotne, 

aby: po pierwsze, uniknąć ograniczenia związanego z prędkością światła i nie 

powodować dezorganizacji Federacji; po drugie, zastosować prędkości 

ponadświetlne, by swobodnie przemieszczać się po Galaktyce.

Szkopuł w tym, że w ramach samej szczególnej teorii względności tej 

ostatniej możliwości nie można zrealizować. Jeśli dopuści się prędkości 

ponadświetlne, fizyka staje się pełna sprzeczności. Nie bez znaczenia jest tu między 

innymi to, że ponieważ w miarę zbliżania się do prędkości światła wzrasta masa 

obiektów, potrzeba stopniowo coraz więcej energii, aby przyspieszyć je o coraz 

mniejszą wartość. Jak w greckim micie o Syzyfie, który skazany był na wtaczanie 

głazu pod górę przez całą wieczność po to tylko, aby za każdym razem, gdy docierał 

do szczytu, ponosić klęskę, cała energia we Wszechświecie nie wystarczyłaby na to, 

aby przyspieszyć ziarnko piasku, nie mówiąc już o statku kosmicznym, do prędkości 

ponadśwłetlnej.

background image

Na tej samej zasadzie nie tylko światło, ale każde bezmasowe promieniowanie 

musi przemieszczać się z prędkością światła. Oznacza to, że wiele rodzajów istot 

zbudowanych z „czystej energii”, jakie napotyka Enterprise, a później Voyager, nie 

mogłoby istnieć w pokazanej postaci. Po pierwsze, nie mogłyby one pozostawać w 

bezruchu. Światło nie może zwolnić, nie mówiąc już o zatrzymaniu. Po drugie, 

zegary każdej inteligentnej, zbudowanej z energii istoty - na przykład fotonowi 

osobnicy w serii Voyager, zbudowani z energii mieszkańcy obłoku Beta Renna w 

serii Następne pokolenie, Zetarianie w pierwszej serii, czy Dal’Rok w serii Stacja 

kosmiczna - która zmuszona jest poruszać się z prędkością światła, miałyby 

nieskończenie duże opóźnienie w stosunku do naszych zegarów. Cała historia 

Wszechświata przebiegałaby dla niej w ciągu krótkiej chwili. Gdyby zbudowane z 

energii istoty mogły czegokolwiek doświadczać, doświadczałyby wszystkiego narazi 

Nie trzeba dodawać, że zanim skontaktowałyby się z istotami cielesnymi, te ostatnie 

już dawno byłyby martwe.

Skoro mówimy o czasie, myślę, że nadeszła już pora, by zapoznać się z 

manewrem Picarda. Jean-Luc zdobył sławę, wprowadzając tę taktykę, gdy przebywał 

na pokładzie Stargazera. Chociaż dotyczy ona podróży z prędkościami 

czasoprzestrzennymi, czyli ponadświetlnymi, które - jak dowodziłem - są niemożliwe 

w ramach samej szczególnej teorii względności, wymaga zastosowania takich 

prędkości tylko przez moment, tak że nie przeczy temu, co do tej pory 

powiedzieliśmy. W trakcie manewru Picarda, mającego na celu pomieszanie szyków 

atakującemu statkowi wroga, przyspiesza się własny statek na krótką chwilę do 

prędkości czasoprzestrzennej. Jest on wtedy widoczny w dwóch miejscach naraz. 

Dzieje się tak dlatego, że poruszając się przez moment szybciej niż światło 

wyprzedza on promienie świetlne, które opuściły go tuż przed uruchomieniem napędu 

czasoprzestrzennego. Chociaż jest to błyskotliwa strategia - i wydaje się na razie 

całkiem sensowna (jeśli zapomnimy na chwilę o tym, że nie wiemy, czy możliwe jest 

osiąganie prędkości czasoprzestrzennych) - widać od razu, iż otwiera ona prawdziwą 

puszkę Pandory. Po pierwsze, zaniedbuje kwestię podnoszoną przez wielu trekkerów 

przez lata: w jaki sposób załoga Enterprise może „widzieć” obiekty zbliżające się do 

niej z prędkością czasoprzestrzenną? Podobnie jak Stargazera wyprzedził swój 

własny obraz, to samo uczynią wszystkie obiekty podróżujące z prędkością 

czasoprzestrzenną; obiekt poruszający się z taką prędkością można zobaczyć dopiero 

długo po tym, jak przybędzie na miejsce. Możemy tylko przypuszczać, że kiedy Kirk, 

background image

Picard czy Janeway chcą obejrzeć obraz na ekranie, pojawia się tam obraz uzyskany 

za pomocą czujników „podprzestrzennych” dalekiego zasięgu (to znaczy komunikacji 

ponadświetlnej). Nawet jeśli przymkniemy oko na to wyraźne przeoczenie, pokazany 

w Star Trek wszechświat, choć niewątpliwie ciekawy, byłby trudny do zarządzania - 

pełen pozornych obrazów obiektów, które dawno temu dotarły do celu, podróżując z 

prędkością czasoprzestrzenną.

Powróćmy do świata prędkości mniejszych niż prędkość światła; nie 

uporaliśmy się bowiem do końca z Einsteinem. Jego słynny związek między masą a 

energią, E = mc

2

, będący konsekwencją szczególnej teorii względności, stanowi 

kolejne wyzwanie dla podróży międzygwiezdnych z prędkościami pulsacyjnymi. 

Rakieta, jak opisałem to w rozdziale pierwszym, wyrzuca materię w tył, aby poruszać 

się do przodu. Łatwo sobie wyobrazić, że im szybciej materia jest odrzucana w tył, 

tym większe będzie pchnięcie w przód. Spaliny nie mogą jednak wydostawać się z 

prędkością większą niż prędkość światła. Nawet nadawanie im prędkości światła nie 

jest łatwe: jedynym na to sposobem jest użycie paliwa spreparowanego z materii i 

antymaterii, które (o czym przekonamy się w jednym z kolejnych rozdziałów) może 

zupełnie anihilować i wytwarzać czyste promieniowanie poruszające się z prędkością 

światła.

Chociaż napęd czasoprzestrzenny w Enterprise wykorzystuje takie właśnie 

paliwo, napęd pulsacyjny działa na innej zasadzie. Jest on zasilany za pomocą syntezy 

jądrowej - tych samych reakcji Jądrowych, dzięki którym wodór przemienia się w hel 

we wnętrzu Słońca. W reakcjach jądrowych w energię zamienia się około 1% 

dostępnej masy. Przy takiej energii wytwarzane atomy helu wydostają się z tyłu 

rakiety z prędkością około 1/8 prędkości światła. Znając prędkość wypływu helu, 

możemy obliczyć ilość paliwa, jakiej potrzebuje Enterprise, aby przyspieszyć, 

powiedzmy, do połowy prędkości światła. Obliczenie to nie jest trudne, ale ograniczę 

się do podania odpowiedzi. Może ona być zaskakująca. Za każdym razem, kiedy 

Enterprise przyspiesza do połowy prędkości światła, musi spalić 81 razy więcej 

paliwa wodorowego niż sam waży. Statek klasy galaktycznej, taki jak Enterprise-D 

Picarda, ważyłby ponad 4 miliony ton, a zatem, aby przyspieszyć ten statek do 

połowy prędkości światła za pomocą napędu pulsacyjnego, za każdym razem trzeba 

by było zużyć ponad 300 milionów ton paliwa! Gdyby w silniku pulsacyjnym 

zastosować układ napędowy wykorzystujący materię i antymaterię, sytuacja 

wyglądałaby nieco lepiej. W tym przypadku wystarczyłoby spalić w trakcie 

background image

przyspieszania tylko dwa razy więcej paliwa niż wynosiłaby waga statku.

Ale to nie wszystko. Obliczenie, które przedstawiłem powyżej, jest poprawne 

dla pojedynczego przyspieszenia. Aby zatrzymać się po osiągnięciu celu, statek 

potrzebowałby drugie tyle paliwa. Oznacza to, że aby udać się gdzieś z prędkością 

równą połowie prędkości światła, a następnie zatrzymać się, potrzebne byłoby paliwo 

w ilości 81x81= 6561 razy całkowita masa statku! Co więcej, przypuśćmy, że ktoś 

chciałby przyspieszyć do połowy prędkości światła w ciągu kilku godzin (zakładamy 

oczywiście, że amortyzatory bezwładności są włączone, osłaniając załogę oraz statek 

przed skutkami działania olbrzymich sił G). Moc wypromieniowana przez silniki w 

postaci spalin wyniosłaby wtedy około l O

22

 watów, czyli niemal miliard razy więcej 

niż całkowita średnia moc wytwarzana obecnie i zużywana przez ludzkość na Ziemi!

Prawdopodobnie powiesz teraz (jak to zrobił pewien mój bystry kolega, gdy 

pewnego dnia przedstawiłem mu tę argumentację), że jest tutaj pewna furtka. 

Rozumowanie to zakłada, że paliwo podróżuje razem z rakietą. Co by się jednak 

stało, gdyby paliwo można było zbierać w trakcie podróży? W końcu wodór jest 

najbardziej rozpowszechnionym pierwiastkiem we Wszechświecie. Czy nie można by 

go gromadzić, podróżując przez Galaktykę? Cóż, średnia gęstość materii w naszej. 

Galaktyce wynosi około 1 atom wodoru na centymetr sześcienny.

Aby uzbierać tylko 1 gram wodoru w ciągu sekundy, poruszając się nawet z 

prędkością będącą sporym ułamkiem prędkości światła, trzeba by było rozwinąć 

powierzchnie zbierające o średnicy ponad 40 kilometrów. Nawet gdyby udało się całą 

tę materię zamienić na energię, wystarczyłoby to tylko na około jedną stumilionową 

potrzebnej do napędu mocy!

Można tu przytoczyć słowa fizyka, laureata Nagrody Nobla, Edwarda 

Purcella, którego argumenty przedstawiłem i rozszerzyłem: „Jeśli wydaje Ci się to 

niedorzeczne, masz rację”. Ta absurdalność bierze się z podstawowych praw 

mechaniki klasycznej i szczególnej teorii względności. Argumenty przedstawione 

tutaj są tak pewne, jak to, że piłka spadnie, kiedy upuści się ją na ziemię. Podróże 

międzygwiezdne przez Galaktykę w statkach z napędem rakietowym z prędkością 

bliską prędkości światła nie są i nigdy nie będą praktycznie wykonalne!

Czy należy więc w tym miejscu zakończyć książkę? Czy powinniśmy odesłać 

gadżety związane ze Star Trek i poprosić o zwrot pieniędzy? Otóż nie, gdyż wciąż 

jeszcze nie skończyliśmy z Einsteinem. Jego ostatnie i chyba największe odkrycie 

daje nam iskierkę nadziei.

background image

Cofnijmy się do roku 1908: odkrycie przez Einsteina względności przestrzeni 

i czasu zwiastuje jedno z tych doświadczeń ludzkości, które co jakiś czas 

nieodwołalnie zmieniają nasz obraz Wszechświata. Jesienią 1908 roku fizyk i 

matematyk Her-mann Minkowski napisał słynne zdanie: „Odtąd przestrzeń sama w 

sobie i czas sam w sobie są skazane na odejście w cień, a tylko rodzaj związku tych 

dwóch wielkości zachowa niezależne istnienie”.

Minkowski zdał sobie sprawę z tego, że chociaż przestrzeń i czas są względne 

dla obserwatorów poruszających się względem siebie - Twój zegar może tykać 

wolniej niż mój, a mierzone przeze mnie odległości będą inne niż mierzone w Twoim 

układzie odniesienia - to gdy zostają one połączone w jedną cztero-wymiarową całość 

(trzy wymiary przestrzenne i jeden czasowy), pojawia się nagle znowu pewna 

„absolutna”, obiektywna rzeczywistość.

Przebłysk zrozumienia, który stał się udziałem Minkowskie-go, można 

wyjaśnić uciekając się do analogii ze światem jednookich istot, które nie dostrzegają 

głębi. Przypuśćmy, że zamknąłeś jedno oko, ograniczając w ten sposób swoją 

percepcję głębi, a ja trzymam linijkę, tak abyś mógł ją widzieć. Następnie proszę 

kogoś innego, patrzącego pod innym kątem, by również zamknął jedno oko. 

Wówczas trzymana przeze mnie linijka wyda mu się krótsza niż Tobie; poniższy 

rysunek pokazuje opisaną sytuację z lotu ptaka:

Każdy obserwator pozbawiony możliwości bezpośredniej oceny głębi określi 

„długość” linijki (L lub L’) jako dwuwymiarowy rzut rzeczywistej, trójwymiarowej 

długości linijki na własną płaszczyznę widzenia. Ponieważ wiemy, że przestrzeń ma 

trzy wymiary, taka sztuczka nas nie oszuka. Wiemy, że patrzenie na coś pod innym 

kątem nie zmienia rzeczywistej długości przedmiotu, nawet jeśli zmienia ją pozornie. 

Minkowski wykazał, że w podobny sposób można wyjaśnić różne paradoksy teorii 

względności. Trzeba tylko przyjąć, że nasze widzenie przestrzeni to trójwymiarowy 

przekrój czegoś, co w rzeczywistości jest czterowymiarowym obiektem, w którym 

przestrzeń i czas są połączone. Dwaj różni obserwatorzy, poruszający się względem 

siebie, postrzegają różne trójwymiarowe przekroje ukrytej czterowymiarowej 

przestrzeni w bardzo podobny sposób, jak obróceni względem siebie obserwatorzy na 

rysunku widzą różne dwuwymiarowe przekroje przestrzeni trójwymiarowej.

Minkowski wyobraził sobie, że odległość przestrzenna mierzona przez dwóch 

poruszających się względem siebie obserwatorów jest projekcją ukrytej 

czterowymiarowej odległości na trójwymiarową przestrzeń, którą mogą postrzegać; i 

background image

podobnie, że czasowa „odległość” między dwoma zdarzeniami jest rzutem odległości 

w czterowymiarowej czasoprzestrzeni na ich własny wymiar czasowy. Podobnie jak 

obrót przedmiotów w trzech wymiarach może wymieszać szerokość i głębokość, tak 

względny ruch w czterowymiarowej przestrzeni może pomieszać pojęcia 

„przestrzeni” i „czasu” różnych obserwatorów. Podobnie jednak jak długość 

przedmiotu nie zmienia się, gdy obracamy go w przestrzeni, tak samo odległość 

między dwoma zdarzeniami w czterowymiarowej czasoprzestrzeni jest stała - 

niezależnie od tego, w jaki sposób różni, poruszający się względem siebie 

obserwatorzy przypisują odległościom „przestrzenność” i „czasowość”.

I tak zadziwiająca niezmienność prędkości światła dla wszystkich 

obserwatorów stała się kluczem do odsłonięcia prawdziwej, czterowymiarowej natury 

Wszechświata, w którym żyjemy. Światło ukazuje ukryty związek między 

przestrzenią a czasem. W rzeczywistości prędkość światła definiuje ów związek.

To właśnie w tym miejscu Einstein powrócił, aby uratować Stor Trek. Kiedy 

już Minkowski wykazał, że czasoprzestrzeń szczególnej teorii względności jest jak 

czterowymiarowa kartka papieru, Einstein spędził większą część następnego 

dziesięciolecia napinając swoje matematyczne mięśnie, aż udało mu się zgiąć tę 

kartkę, co z kolei pozwala nam nagiąć reguły gry. Jak się zapewne domyślasz, 

kluczem do tego okazało się znowu światło.

background image

ROZDZIAŁ 3

HAWKING WYKŁADA KARTY

Jakże słabo wy, śmiertelnicy, rozumiecie czas. Czy musisz być taki liniowy, 

Jean-Luc?

Q do Picarda w odcinku Wszystko, co dobre...

Planeta Wulkan, z której pochodzi Spock, jest bardzo zasłużona dla fizyki XX 

wieku. Na początku naszego stulecia wielką zagadkę astronomii stanowiło to, że 

peryhelium Merkurego - czyli punkt orbity, w którym planeta znajduje się najbliżej 

Słońca - w trakcie każdego jego obiegu wokół Słońca ulega niewielkiej precesji w 

sposób niezgodny z teorią grawitacji Newtona. Aby rozwiązać ten problem, 

wysunięto hipotezę, że jeszcze bliżej Słońca niż Merkury krąży inna planeta, która 

zaburza jego ruch. (Co ciekawe, podobne wyjaśnienie anomalii w ruchu orbitalnym 

Urana zaowocowało wcześniej odkryciem Neptuna). Ową hipotetyczną planetę 

nazwano Wulkanem.

Niestety, tajemnicza planeta Wulkan nie istnieje. Natomiast Einstein 

zaproponował, aby zastąpić płaską przestrzeń Newtona i Minkowskiego zakrzywioną 

czasoprzestrzenią ogólnej teorii względności. W tej zakrzywionej przestrzeni orbita 

Merkurego odchylałaby się nieco od toru, jaki przewidywała teoria Newtona, co 

wyjaśniałoby obserwowaną niezgodność.

Chociaż w ten sposób znikła potrzeba istnienia planety Wulkan, pojawiły się o 

wiele bardziej ekscytujące możliwości: z zakrzywioną przestrzenią związane są 

czarne dziury, tunele czasoprzestrzenne, a być może realne stają się nawet podróże w 

czasie.

Rzeczywiście, jeszcze zanim twórcy Star Trek wymyślili pole zakrzywiające 

czasoprzestrzeń, Einstein zakrzywiał ją podobnie jak oni, uzbrojony jedynie w swoją 

wyobraźnię. Zamiast jednak wyobrażać sobie technologię podróży 

międzygwiezdnych w XXII wieku, uczony przeprowadzał eksperymenty myślowe z 

windami. Einstein był niewątpliwie wielkim fizykiem, ale pewnie nigdy nie 

sprzedałby scenariusza.

Jego argumenty można jednak w nienaruszonej postaci przenieść na pokład 

Enterprise. Ponieważ światło jest nitką splatającą przestrzeń i czas, tory promieni 

świetlnych tworzą mapę czasoprzestrzeni tak samo, jak osnowa i wątek ukazują 

wzory gobelinu. Zazwyczaj światło podróżuje po liniach prostych. Co by się jednak 

stało, gdyby romulański dowódca na pokładzie znajdującego się w pobliżu statku 

background image

Warbird wystrzelił promień fazera w kierunku Picarda, siedzącego na mostku 

swojego kapitańskiego jachtu Calypso, którego silnik pulsacyjny został właśnie 

uruchomiony (w tym przykładzie przyjmujemy, że amortyzatory bezwładności 

zostały wyłączone)? Picard ruszyłby gwałtownie naprzód, ledwo unikając promienia 

fazera. Z punktu widzenia układu odniesienia Picarda sytuacja wyglądałaby tak jak na 

rysunku na następnej stronie.

Dla Picarda tor promienia fazera byłby więc zakrzywiony. Co jeszcze mógłby 

on zauważyć? Jeśli przypomnimy sobie argumentację z rozdziału pierwszego, bez 

trudu stwierdzimy, że gdy amortyzatory bezwładności są wyłączone, Picard zostanie 

wgnieciony w fotel. Zwróciłem tam również uwagę na to, że gdyby Picard poruszał 

się naprzód z takim samym przyspieszeniem, z jakim spadają na Ziemię ciała pod 

wpływem siły grawitacji, odczułby, iż siła, która wgniata go w fotel, jest taka sama 

jak siła, która ciągnie go w dół, kiedy stoi na Ziemi. Einstein dowodził, że Picard (lub 

na przykład ktoś znajdujący się w jadącej w górę windzie) nie mógłby nigdy 

przeprowadzić eksperymentu, który wskazałby różnicę między siłą reakcji wywołaną 

przyspieszeniem a działaniem grawitacji jakiegoś ciężkiego obiektu znajdującego się 

w pobliżu statku. W ten sposób Einstein wszedł śmiało na teren nie znany dotąd 

fizykom i dowodził, że wszelkie zjawiska zaobserwowane przez przyspieszającego 

obserwatora wyglądałyby tak, jakby przebiegały w polu grawitacyjnym.

Z tego przykładu wynika co następuje: ponieważ Picard obserwuje 

zakrzywianie się promienia fazera, gdy oddala się od niego z pewnym 

przyspieszeniem, promień taki musi się również zakrzywiać w polu grawitacyjnym. 

Ale promienie świetlne wytyczają mapę czasoprzestrzeni; a zatem zakrzywieniu w 

takim polu ulega sama czasoprzestrzeń. Skoro zaś materia wytwarza pole 

grawitacyjne, to ona właśnie musi zakrzywiać czasoprzestrzeń!

Można jednak argumentować, że ponieważ światło ma energię, masa zaś i 

energia są związane ze sobą słynnym równaniem Einsteina, zakrzywianie się 

promienia świetlnego w polu grawitacyjnym nie jest wielkim zaskoczeniem - a już na 

pewno nie wynika z tego, że musimy przyjąć, iż to sama czasoprzestrzeń się 

zakrzywia. W końcu tory, po jakich porusza się materia, również ulegają 

zakrzywieniu (wystarczy chociażby podrzucić piłkę). Nawet Galileusz mógłby 

wykazać - gdyby znał takie obiekty - że tory piłek baseballowych i rakiet Pathfinder 

ulegają zakrzywieniu i wcale nie musiałby przy tym wspominać o zakrzywionej 

przestrzeni.

background image

Można jednak obliczyć, o ile powinien zakrzywić się promień świetlny, gdyby 

zachowywał się tak samo, jak piłka baseballowa, a następnie zmierzyć rzeczywiste 

zakrzywienie. Zrobił to

w 1919 roku sir Arthur Stanley Eddington, który kierował ekspedycją mającą 

określić pozycje gwiazd na niebie w pobliżu Słońca w czasie jego zaćmienia. 

Eddington zmierzył ten efekt i okazało się, że światło zakrzywia się dokładnie dwa 

razy bardziej, niż mógłby przewidzieć Galileusz, zakładając, iż światło zachowuje się 

jak piłka baseballowa w płaskiej przestrzeni. Jak łatwo się domyślić, ta dwukrotnie 

większa wartość jest dokładnie zgodna z przewidywaniami Einsteina, przy założeniu, 

że czasoprzestrzeń zakrzywia się w pobliżu Słońca i światło (lub na przykład 

Merkury) porusza się w tym miejscu po „prostej” w zakrzywionej przestrzeni! Nagle 

nazwisko Einsteina stało się powszechnie znane.

Zakrzywiona przestrzeń otwiera cały wszechświat możliwości, jeśli mogę 

posłużyć się takim kalamburem. Podobnie jak Enterprise, uwalniamy się z okowów 

swego rodzaju liniowego myślenia - narzuconego nam przez szczególną teorię 

względności - tak znienawidzonego przez Q. W zakrzywionej przestrzeni możliwych 

jest wiele rzeczy, które nie mają racji bytu w przestrzeni płaskiej. Można na przykład 

wędrować ciągle w tym samym kierunku, a mimo to wrócić do punktu wyjścia - 

ludzie podróżujący dookoła świata robią to przez cały czas.

Centralne założenie ogólnej teorii względności Einsteina przedstawia się 

bardzo prosto i brzmi następująco: zakrzywienie czasoprzestrzeni jest określone przez 

rozkład zawartej w niej materii i energii. Równania Einsteina ustanawiają ścisły 

matematyczny związek między zakrzywieniem z jednej strony, a. materią i energią z 

drugiej:

lewa strona równania  = 

prawa strona równania 

ZAKRZYWIENIE

 = 

MATERIA I ENERGIA

Tym, co czyni tę teorię tak piekielnie trudną w zastosowaniach, jest właśnie 

owo proste sprzężenie zwrotne: zakrzywienie czasoprzestrzeni jest określone przez 

rozkład materii i energii we Wszechświecie, z kolei rozkład ten jest uzależniony od 

zakrzywienia czasoprzestrzeni. Można to porównać do problemu, co było pierwsze - 

jajko czy kura? Materia jest źródłem zakrzywienia czasoprzestrzeni, które z kolei 

określa ewolucję materii, co wpływa na zakrzywienie i tak dalej.

Dla zagadnienia podróży międzygwiezdnych jest to zapewne najważniejszy 

aspekt ogólnej teorii względności. Złożoność tej teorii oznacza, że ciągle jeszcze nie 

background image

rozumiemy w pełni wszystkich jej konsekwencji, a zatem nie możemy wykluczyć 

różnych niezwykłych możliwości. Te właśnie możliwości są wodą na młyn Star Trek. 

Jak się przekonamy, u ich podstaw leży wielka niewiadoma, która przenika wszystko: 

od tuneli czasoprzestrzennych i czarnych dziur po wehikuły czasu.

Pierwszym ważnym dla przygód statku Enterprise wnioskiem wynikającym z 

tego, że czasoprzestrzeń nie musi być płaska, jest to, że sam czas staje się wielkością 

jeszcze bardziej dynamiczną niż w szczególnej teorii względności. Czas może płynąć 

w różnym tempie dla różnych obserwatorów, nawet jeśli nie poruszają się oni 

względem siebie. Wyobraźmy sobie, że podziałka na tarczy zegara zachowuje się jak 

podziałka na linijce zrobionej z gumy. Jeżeli rozciągniemy lub zegniemy linijkę, 

odległości między kreskami podziałki będą się zmieniać od punktu do punktu. Gdyby 

odległości te odpowiadały tyknięciom zegara, zegary umieszczone w różnych 

miejscach chodziłyby w różnym tempie. W ogólnej teorii względności Einsteina 

„zgiąć” linijkę może pole grawitacyjne, które z kolei wymaga obecności materii.

Ujmując to bardziej praktycznie: jeśli umieścimy w pobliżu zegara ciężką kulę 

żelazną, tempo jego tykania powinno ulec zmianie. Mówiąc jeszcze bardziej 

poglądowo: jeśli podczas mego snu budzik znajduje się bardzo blisko mojego ciała, 

zostanę obudzony nieco później, niż gdyby był daleko, przynajmniej w stosunku do 

reszty świata.

Słynny eksperyment, przeprowadzony w laboratoriach Uniwersytetu Harvarda 

w roku 1960, zademonstrował, że upływ czasu może zależeć od tego, gdzie się 

znajdujesz. Robert Pound oraz George Rebka wykazali, że częstość promieniowania y 

mierzonego przy źródle w piwnicy budynku różniła się od częstości tego 

promieniowania, gdy docierało ono na dach budynku, 22 metry wyżej (detektory, 

oczywiście, dokładnie wykalibrowano, tak by same nie powodowały żadnej różnicy). 

Przesunięcie było niezwykle małe - sięgało jednej milionowomiliardowej. Jeśli każdy 

okres fali promieniowania y porównać z ryknięciem zegara atomowego, z 

eksperymentu tego wynika, że zegar w piwnicy będzie chodził wolniej niż jego 

odpowiednik na dachu. Na niższym piętrze czas zwalnia, ponieważ znajduje się ono 

bliżej Ziemi niż dach, a więc pole grawitacyjne -a co za tym idzie również 

zakrzywienie czasoprzestrzeni - jest tam większe. Chociaż efekt ten był bardzo mały, 

jego wielkość dokładnie odpowiadała wartości przewidywanej przez ogólną teorię 

względności, przy założeniu, że w pobliżu Ziemi czasoprzestrzeń ulega zakrzywieniu.

Drugi wniosek z tego, że przestrzeń się zakrzywia, jest, jeśli chodzi o podróże 

background image

międzygwiezdne, może jeszcze bardziej ekscytujący. Gdy przestrzeń jest 

zakrzywiona, linia prosta nie musi być najkrótszą drogą między dwoma punktami. 

Oto przykład. Przyjrzyjmy się okręgowi na kartce papieru. Zazwyczaj najkrótszą 

odległość między dwoma punktami A i B, umieszczonymi po przeciwnych stronach 

okręgu, stanowi łączący je odcinek, który przechodzi przez środek okręgu:

Gdybyśmy natomiast musieli przemieścić się z A do B po okręgu, podróż 

byłaby około 1,5 rażą dłuższa. Teraz narysujmy ten okrąg na kawałku gumy i 

odkształćmy środkowy obszar w następujący sposób:

Jeśli popatrzymy z naszej trójwymiarowej perspektywy, stanie się jasne, że 

podróż z -A do B przez środek tego obszaru będzie znacznie dłuższa niż po okręgu. 

Gdybyśmy jednak sfotografowali ten układ z góry, tak że powstałby obraz 

dwuwymiarowy, linia łącząca punkty A oraz B przez środek wyglądałaby jak linia 

prosta. Co ważniejsze, gdyby niewielki robaczek (lub jedna z dwuwymiarowych istot, 

jakie napotkał Enterprise) miał przejść po torze łączącym A i B przez środek, 

posuwając się po powierzchni, tor ten wydałby mu się prosty. Byłby zdziwiony, że 

linia prosta biegnąca przez środek i łącząca A z B nie jest już najkrótszą drogą 

background image

między tymi dwoma punktami. Gdyby był inteligentny, musiałby dojść do wniosku, 

że dwuwymiarowa przestrzeń, w której żyje, jest zakrzywiona. Tylko obserwując, jak 

powierzchnia ta zanurzona jest w trójwymiarowej przestrzeni, możemy bezpośrednio 

zauważyć krzywiznę.

Należy pamiętać, że żyjemy w czterowymiarowej czasoprzestrzeni, która 

może być zakrzywiona, i nasze możliwości postrzegania jej krzywizny są tak samo 

ograniczone, jak możliwości robaczka idącego po powierzchni kartki. Nietrudno 

zgadnąć, do czego zmierzam: jeśli w zakrzywionej przestrzeni najkrótsza odległość 

między dwoma punktami nie musi być linią prostą, nie można wykluczyć, że dzięki 

znalezieniu krótszej drogi przez zakrzywioną czasoprzestrzeń uda się przebyć 

odległość, która wzdłuż linii widzenia wydaje się duża.

Opisane własności czasoprzestrzeni pozwalają snuć marzenia o podróżach 

międzygwiezdnych. Pozostaje oczywiście pytanie: ile z tych marzeń może się 

pewnego dnia urzeczywistnić?

TUNELE CZASOPRZESTRZENNE: FAKTY I MITY. Tunel bajorański w 

serii Stacja kosmiczna jest chyba najsłynniejszym tunelem czasoprzestrzennym w 

Star Trek, choć było też wiele innych, na przykład niebezpieczny tunel, który Scotty 

stworzył powodując zachwianie równowagi między materią i antymaterią w napędzie 

czasoprzestrzennym Enterprise, a także niestabilny tunel barzański, w którym zgubił 

się statek Ferengów w odcinku Cena serii Następne pokolenie, czy tunel czasowy, 

który napotkał Voyager, próbując powrócić do domu z krańca Galaktyki.

Idea tuneli czasoprzestrzennych ma swoje źródło w hipotezach, o których 

pisałem wcześniej. Jeśli czasoprzestrzeń jest zakrzywiona, mogą istnieć różne drogi 

łączące dwa punkty, między innymi takie, wzdłuż których odległość między 

punktami jest o wiele krótsza, niż gdybyśmy zmierzyli ją podróżując przez 

zakrzywioną przestrzeń wzdłuż „linii prostej”. Ponieważ nie potrafimy sobie 

wyobrazić zjawisk w zakrzywionej cztero-wymiarowej czasoprzestrzeni, jeszcze raz 

posłużymy się dwuwymiarowym kawałkiem gumy, którego zakrzywienie możemy 

obserwować w przestrzeni trójwymiarowej.

Jeśli kawałek gumy zakrzywiony jest w dużej skali, można go sobie 

wyobrazić następująco:

background image

Gdybyśmy wbili ołówek w punkcie A i naciągnęli gumową powierzchnię aż 

do punktu B, a następnie zszyli obie części w ten sposób:

utworzylibyśmy znacznie krótszą drogę z A do B niż droga biegnąca między 

tymi punktami po powierzchni. Zauważmy, że w pobliżu A i B powierzchnia wydaje 

się płaska. Zakrzywienie, które powoduje, że te dwa punkty znajdują się 

wystarczająco blisko siebie, aby można je było połączyć tunelem, związane jest z 

globalnym zagięciem powierzchni na dużych odległościach. Robaczek (nawet 

inteligentny), znajdujący się w punkcie A i zmuszony do podróży po powierzchni, nie 

miałby pojęcia, że punkt B leży tak „blisko”, nawet gdyby potrafił przeprowadzać w 

okolicy A eksperymenty mające określić krzywiznę powierzchni.

Jak łatwo zgadnąć, tunel łączący na tym rysunku punkty A i B jest 

dwuwymiarowym odpowiednikiem trójwymiarowego tunelu, który mógłby biec 

między odległymi obszarami czasoprzestrzeni. Chociaż jest to fascynująca 

możliwość, należy zwrócić uwagę na kilka jej zwodniczych aspektów. Po pierwsze, 

nawet jeśli gumowa powierzchnia jest zanurzona w trójwymiarowej przestrzeni tak, 

abyśmy mogli „zobaczyć” jej zakrzywienie, ten powyginany kawałek gumy może 

istnieć również bez otaczającej go trójwymiarowej przestrzeni. A zatem, chociaż 

tunel między A i B mógłby się pojawić, stwierdzenie, że A i B są „blisko siebie”, nie 

ma sensu, jeśli nie ma tunelu. Nie można opuścić gumowej powierzchni i przemieścić 

się z A do B w trójwymiarowej przestrzeni, w której jest ona osadzona. Bez 

trójwymiarowej przestrzeni gumowa powierzchnia jest całym wszechświatem.

Wyobraź teraz sobie, że jesteś członkiem nieskończenie zaawansowanej w 

rozwoju cywilizacji (ale nie aż tak zaawansowanej, jak wszechmocne istoty Q, które 

background image

właściwie nie liczą się

z prawami fizyki), potrafiącej budować tunele w przestrzeni. Urządzenie do 

budowy tuneli działałoby w zasadzie tak, jak ołówek w podanym przeze mnie 

przykładzie. Gdybyś posiadał moc wystarczającą, by wytwarzać olbrzymie, 

miejscowe zakrzywienia przestrzeni, musiałbyś potem przekłuwać przestrzeń wokół 

na chybił trafił w nadziei, że uda Ci się jakoś połączyć dwa obszary przestrzeni, które 

do momentu powstania tunelu znajdowały się bardzo daleko od siebie. Aż do chwili, 

gdy tunel utworzy most między tymi obszarami, w żaden sposób nie są one blisko 

siebie. To sam proces budowania tego mostu zmienia globalną naturę 

czasoprzestrzeni.

Z tego powodu tworzenia tuneli nie należy lekceważyć. Kiedy barzańska 

premier Bhavani odwiedziła Enterprise, aby odsprzedać prawa do barzańskiego 

tunelu, wykrzyknęła: „Przed wami rozciąga się pierwszy i jedyny znany stabilny tunel 

czasoprzestrzenny!” Niestety, nie był on stabilny: wszystkie tunele, których 

matematyczne istnienie zostało udowodnione w ramach ogólnej teorii względności, są 

w istocie krótkotrwałe. Powstają, gdy dwie mikroskopijne „osobliwości” - obszary 

czasoprzestrzeni, w których krzywizna staje się nieskończenie duża - odnajdują się i 

na chwilę łączą. Tunel zamyka się jednak szybko, pozostawiając znowu dwie 

rozłączne osobliwości. Trwa to tak krótko, że przez tunel nie zdążyłby się przedostać 

żaden amator podróży międzygwiezdnych. Nieszczęsny podróżnik rozpadłby się na 

kawałki w jednej lub drugiej osobliwości jeszcze przed końcem podróży.

Problem polegający na tym, jak wejście do tunelu utrzymać otwarte, jest 

niezwykle trudno sformułować w ścisły, matematyczny sposób, ale w sensie 

fizycznym można go łatwo wyrazić: grawitacja wciąga! Każdy rodzaj zwyczajnej 

materii lub energii zapada się pod wpływem własnego przyciągania grawitacyjnego, 

chyba że proces ten zostanie zatrzymany przez coś innego. Podobnie, w normalnych 

warunkach wejście do tunelu zostanie rozerwane w mgnieniu oka.

Sztuka polega więc na tym, aby pozbyć się owych normalnych warunków. W 

ostatnich latach m.in. Kip Thorne, fizyk z Caltech, dowodził, że jedynym sposobem 

na utrzymanie otwartych tuneli jest przymocowanie ich za pomocą „egzotycznej 

materii” o niezwykłych własnościach: przynajmniej dla niektórych obserwatorów 

miałaby ona „ujemną” energię. Można by oczekiwać (choć naiwne pomysły rzadko 

się sprawdzają w teorii względności), że taka materia „rozdmuchiwałaby”, a nie 

„wciągała”, przynajmniej jeśli chodzi o grawitację.

background image

Nie trzeba być zagorzałym trekkerem, aby przystać na pomysł materii o 

ujemnej energii; chociaż, jak zauważyłem, w przypadku zakrzywionej przestrzeni nie 

należy zbytnio ufać swoim wyobrażeniom. Kiedy jednak doda się jeszcze do tego 

niezwykłe zjawiska, którymi zasypuje nas mechanika kwantowa i które rządzą 

zachowaniem materii w małej skali, prawie wszystkie przewidywania okazują się 

błędne.

CZARNE DZIURY I DR HAWKING. Na scenę wkracza Stephen Hawking. 

Zdobył on sławę wśród fizyków zajmujących się ogólną teorią względności dzięki 

udziałowi, jaki miał w udowodnieniu ogólnych twierdzeń związanych z istnieniem 

osobliwości w czasoprzestrzeni, a następnie - w latach siedemdziesiątych -dzięki 

wspaniałym odkryciom teoretycznym dotyczącym zachowania czarnych dziur. Są to 

obiekty powstające z materii, która zapadła się tak bardzo, że pole grawitacyjne 

uniemożliwia nawet światłu ucieczkę z ich powierzchni.

Nawiasem mówiąc, termin „czarna dziura”, który tak zniewolił publiczną 

wyobraźnię, wymyślił fizyk teoretyk John Archłbald Wheeler z Uniwersytetu w 

Princeton późną jesienią 1967 roku. Ta data jest bardzo interesująca, ponieważ, o ile 

mi wiadomo, pierwszy odcinek Star Trek, w którym pojawiło się pojęcie czarnej 

dziury - jeszcze pod nazwą „czarnej gwiazdy” -został wyemitowany w 1967 roku, 

zanim Wheeler użył tego terminu publicznie. Kiedy oglądałem ów odcinek zbierając 

materiały do książki, wydało mi się zabawne, że twórcy Stor Trek użyli 

nieprawidłowej nazwy. Teraz zdaję sobie sprawę, że oni niemal ją wynaleźli!

Czarne dziury są niezwykłymi obiektami z rozmaitych powodów. Po 

pierwsze, każda czarna dziura skrywa w swoim wnętrzu czasoprzestrzenną 

osobliwość, do której w nieunikniony

sposób musi dotrzeć wszystko, co spada na czarną dziurę. W takiej 

osobliwości - nieskończenie zakrzywionym „wierzchołku” czasoprzestrzeni - znane 

nam prawa fizyki się załamują. W pobliżu osobliwości krzywizna jest tak duża na tak 

małym obszarze, że efektami działania grawitacji rządzą prawa mechaniki 

kwantowej. Jak dotąd jednak nikomu nie udało się stworzyć teorii, która spójnie 

pomieściłaby w sobie zarówno ogólną teorię względności (czyli grawitację), jak i 

mechanikę kwantową. Autorzy Stor Trek potrafili właściwie ocenić napięcie 

istniejące między mechaniką kwantową a teorią grawitacji: zwykle określają 

wszystkie osobliwości czasoprzestrzeni jako „osobliwości kwantowe”. Jedno jest 

pewne: zanim pole grawitacyjne w środku czarnej dziury osiągnie wystarczająco duże 

background image

natężenie, aby załamały się znane nam prawa fizyki, każdy zwyczajny fizyczny 

przedmiot zostanie rozerwany na strzępy. Nic nie przetrwa w stanie nietkniętym.

Powiedziałem, że czarna dziura „skrywa” w swoim wnętrzu osobliwość. Na 

krańcach czarnej dziury znajduje się zdefiniowana matematycznie powierzchnia, 

zwana horyzontem zdarzeń, która przesłania nam widok tego, co dzieje się z 

przedmiotami wpadającymi do czarnej dziury. Wszystko, co znajdzie się wewnątrz 

horyzontu, musi nieuchronnie dotrzeć do złowieszczej osobliwości. Jedynie obiekty 

będące na zewnątrz horyzontu zdarzeń mogą uniknąć tego losu. Pechowy obserwator 

(który wkrótce przestanie już być obserwatorem), spadający do czarnej dziury, nie 

zauważy niczego specjalnego w momencie przekraczania horyzontu zdarzeń, 

natomiast obserwator przyglądający się temu z daleka ujrzy coś zupełnie innego. Czas 

obserwatora spadającego swobodnie w pobliżu horyzontu zdarzeń zdaje się zwalniać 

w stosunku do czasu obserwatora znajdującego się daleko. W związku z tym 

odległemu obserwatorowi wydaje się, że ten, który spada, zwalnia swój ruch w miarę 

jak zbliża się do horyzontu zdarzeń. Im bliżej horyzontu się znajduje, tym wolniej 

chodzi jego zegar w stosunku do zegara zewnętrznego obserwatora. Chociaż 

spadającemu obserwatorowi przekroczenie horyzontu zdarzeń może zająć tylko kilka 

chwil (czasu własnego) - przy czym, powtarzam, nic specjalnego się tam nie dzieje i 

nic szczególnego nie znajduje - zewnętrzny obserwator musiałby na to czekać przez 

wieczność. Spadający na czarną dziurę obiekt sprawia wrażenie zamrożonego w 

czasie.

Co więcej, emitowane przez spadający obiekt światło coraz trudniej jest 

dostrzec z zewnątrz. Gdy obiekt taki zbliża się do horyzontu zdarzeń, staje się coraz 

słabiej widoczny (ponieważ częstość docierającego od niego promieniowania 

przesuwa się poniżej częstości widzialnych). A zatem nawet gdyby można było 

zobaczyć z zewnątrz moment przejścia spadającego obiektu przez horyzont zdarzeń 

(co jest niemożliwe w jakimkolwiek skończonym odstępie czasu), zniknąłby on w tej 

chwili zupełnie z pola widzenia, ponieważ emitowane przezeń światło zostałoby 

schwytane razem z nim. Cokolwiek znajdzie się wewnątrz horyzontu zdarzeń jest na 

zawsze stracone dla zewnętrznego świata. Ten brak komunikacji wygląda jak 

jednokierunkowa ulica: zewnętrzny obserwator może wysyłać sygnały do czarnej 

dziury, ale żaden z nich nigdy nie powróci.

W świetle tych faktów czarne dziury spotykane w Star Trek mają absurdalne 

właściwości. Horyzont zdarzeń nie jest namacalnym przedmiotem, ale umowną 

background image

matematyczną granicą, którą wprowadzamy do opisu czarnej dziury, aby oddzielić 

obszar wewnętrzny od zewnętrznego. Oznacza to, że horyzont nie może wydawać z 

siebie trzasku, jak tego oczekuje załoga Voyager, kiedy w cudowny sposób udaje jej 

się uciec z wnętrza czarnej dziury. (Pomysł ten jest tak absurdalny, że dostał się na 

stworzoną przeze mnie listę dziesięciu największych błędów popełnionych przez 

scenarzystów Stor Trek, które opisuję w ostatnim rozdziale). Z kolei „istoty 

zamieszkujące osobliwości kwantowe”, napotkane przez załogę Enterprise, gdy wraz 

z romulańskim statkiem Warbird podróżuje on w przeszłość i przyszłość, wybierają 

niezbyt szczęśliwe miejsce na gniazdo dla swoich młodych: umieszczają je wewnątrz 

powstałej w naturalny sposób czarnej dziury (za którą mylnie biorą „sztuczną” 

osobliwość kwantową w rdzeniu silnika romulańskiego statku). Choć może to być 

bezpieczne miejsce, trudno jednak wydobyć z niego swoje potomstwo. Przypominam, 

że nic, coznajduje się wewnątrz czarnej dziury, nie może komunikować się z 

czymkolwiek na zewnątrz.

Czarne dziury jednak, mimo tylu ciekawych własności, nie muszą być aż tak 

niezwykłe. Jedyne czarne dziury, na których istnienie we Wszechświecie mamy 

jakiekolwiek dowody, powstają w wyniku zapadania się gwiazd o wiele bardziej 

masywnych od Słońca. Te zapadnięte obiekty stają się tak gęste, że łyżeczka 

znajdującej się wewnątrz nich materii ważyłaby wiele ton. Kolejną niezwykłą 

właściwością czarnych dziur jest to, że im większą mają masę, tym mniejsza musi być 

ich gęstość w chwili, gdy powstają. Na przykład gęstość czarnej dziury, która 

utworzyła się w wyniku zapadnięcia się obiektu o masie sto milionów razy większej 

od masy Słońca, nie musi być większa od gęstości wody. Obiekt o większej masie 

zapadnie się i utworzy czarną dziurę nawet przy jeszcze mniejszej gęstości. Jeśli 

będziemy dalej ekstrapolować tę zależność, okaże się, że gęstość konieczna do tego, 

aby powstała czarna dziura o masie równej masie obserwowalnego Wszechświata, 

jest mniej więcej taka sama jak średnia gęstość materii we Wszechświecie. Możliwe, 

że żyjemy wewnątrz czarnej dziury!

W 1974 roku Stephen Hawking dokonał niezwykłego odkrycia, stwierdzając, 

że czarne dziury nie są zupełnie czarne! Mogą emitować promieniowanie o pewnej 

charakterystycznej temperaturze zależnej od ich masy. Chociaż natura tego 

promieniowania nie zawiera żadnej informacji o tym, co wpadło do czarnej dziury, 

sama idea, że czarna dziura może promieniować, była zdumiewająca. Wydawało się, 

że narusza ona wiele twierdzeń -z których część Hawking sam wcześniej udowodnił - 

background image

utrzymujących, iż materia może tylko wpadać do czarnych dziur, ale nigdy nie może 

się z nich wydostać. Wszystko to prawda, tyle że źródło promieniowania czarnej 

dziury nie jest zwykłą materią: promieniuje pusta przestrzeń, która może zachowywać 

się całkiem nietypowo - zwłaszcza w pobliżu czarnej dziury.

Odkąd prawa mechaniki kwantowej zostały uzgodnione ze szczególną teorią 

względności, do czego doszło wkrótce po drugiej wojnie światowej, wiemy, że pusta 

przestrzeń nie jest całkiem pusta. Jest ona raczej kipiącym, bulgoczącym morzem 

kwantowych zaburzeń. Te fluktuacje co jakiś czas wypluwają pary cząstek 

elementarnych, które istnieją przez okres tak krótki, że nie możemy ich 

zaobserwować wprost, a następnie z powrotem znikają w próżni, z której się 

narodziły. Zasada nieoznaczoności w mechanice kwantowej mówi, że nie da się 

badać bezpośrednio pustej przestrzeni w tak krótkich odcinkach czasu, a wiec nie 

można wykluczyć, iż owe cząstki, zwane wirtualnymi, pojawiają się na mgnienie oka 

i znikają. Choć nie potrafimy wykryć tych cząstek bezpośrednio, ich obecność ma 

wpływ na wielkości fizyczne, które możemy mierzyć, jak na przykład tempo i energia 

przejść między pewnymi poziomami energetycznymi w atomach. Ów efekt udało się 

doświadczalnie potwierdzić.

To przywodzi nas z powrotem do Hawkinga i jego niezwykłych odkryć. W 

normalnych warunkach, gdy fluktuacja kwantowa tworzy wirtualną parę cząstek, para 

ta anihiluje ł znika z powrotem w próżni w czasie tak krótkim, że nie można 

zaobserwować złamania zasady zachowania energii (spowodowanego kreacją tej pary 

z nicości). Kiedy jednak wirtualna para cząstek pojawia się w zakrzywionej 

przestrzeni w pobliżu czarnej dziury, jedna z cząstek może do niej wpaść, druga zaś 

uciec, dzięki czemu staje się dostępna obserwacjom. Dzieje się tak dlatego, że cząstka 

wpadająca do czarnej dziury może stracić w tym procesie więcej energii, niż jest 

potrzebne na jej stworzenie z niczego. Dostarcza więc ona do czarnej dziury „ujemnej 

energii” i w ten sposób energia czarnej dziury się obniża. Zasada zachowania energii 

nie ulega przy tym złamaniu, gdyż ta ujemna energia równoważy energię cząstki, 

która uciekła i została zaobserwowana. W ten sposób czarna dziura emituje 

promieniowanie. Co więcej, zmniejszaniu się energii czarnej dziury towarzyszy w 

tym procesie zmniejszanie się jej masy. W końcu może ona zupełnie wyparować, 

pozostawiając po sobie jedynie wyprodukowane w czasie swojego istnienia 

promieniowanie.

Hawking i wielu innych uczonych wykroczyli poza początkowe rozważania 

background image

kwantowych fluktuacji materii w zakrzywionej przestrzeni i zajęli się czymś jeszcze 

bardziej niezwykłym i nie

tak dobrze określonym. Jeśli mechanika kwantowa dotyczy nie tylko materii i 

promieniowania, lecz również grawitacji, w wystarczająco małych skalach muszą 

pojawić się fluktuacje samej czasoprzestrzeni. Niestety, nie dysponujemy teorią, którą 

moglibyśmy wykorzystać do opisu takich procesów. Nie stanowiło to jednak 

przeszkody w podjęciu próbnych badań teoretycznych nad zjawiskami, które 

mogłyby z tego wyniknąć. Do najbardziej interesujących należy przypuszczenie, że 

procesy kwantowomechaniczne mogłyby pozwalać na spontaniczną kreację nie tylko 

cząstek, ale całych nowych wszechświatów. Mechanika kwantowa określa, 

przynajmniej matematycznie, jak miałoby się to odbywać, a formalny zapis tego 

procesu jest bardzo podobny do rozwiązań opisujących tunele czasoprzestrzenne, 

odkrytych w klasycznej teorii względności. Za pośrednictwem takich 

„euklidesowych” tuneli powstaje tymczasowy „most”, prowadzący do nowego 

wszechświata. Możliwości związane z procesami dotyczącymi tuneli euklidesowych i 

wszechświatów potomnych są tak fascynujące, że o kwantowych fluktuacjach 

wspomniano nawet w czasie gry w pokera, do której zasiedli Hawking, Einstein i 

Newton w odcinku Dziedzictwo z serii Następne pokolenie

1

. Jeśli twórcy Stor Trek 

byli zdezorientowani, mieli do tego pełne prawo. Te zagadnienia pozostają niestety 

wciąż bardzo niejasne. Aż do chwili, gdy odkryjemy właściwy formalizm 

matematyczny, za pomocą którego będzie można opisywać procesy związane z 

kwantowaniem grawitacji, wszystkie tego rodzaju rozważania przypominają 

błądzenie po omacku.

Dla nas jednak najbardziej istotne są nie zjawiska parowania czarnych dziur, 

czy nawet wszechświatów potomnych, lecz raczej odkrycie, że kwantowe fluktuacje 

pustej przestrzeni nabierają, przynajmniej w obecności silnych pól grawitacyjnych, 

własności przypominających warunki konieczne do otwarcia tunelu 

czasoprzestrzennego. Zasadnicze pytanie, na które również nie ma jeszcze ostatecznej 

odpowiedzi, brzmi: czy fluktuacje kwantowe w pobliżu tunelu czasoprzestrzennego 

mogą się zachowywać wystarczająco nietypowo, ażeby utrzymać otwarty tunel?

(Przy okazji należy wspomnieć, że autorzy Star Trek jeszcze raz okazali się 

nadzwyczaj przewidujący w wyborze nazewnictwa. Mówi się, że tunele bajorariski i 

barzański wykorzystują pola „werteronowe”. Nie mam pojęcia, czy ta nazwa została 

wzięta z sufitu, czy nie. Ponieważ jednak cząstki wirtualne - fluktuacje kwantowe w 

background image

pustej przestrzeni - są obecnie najlepszym kandydatem do miana „egzotycznej 

materii” Kipa Thorne'a, sądzę, że intuicja twórców Star Trek - o ile tym razem się nią 

posłużyli - zasługuje na uznanie).

Innymi słowy, jeśli fluktuacje kwantowe w próżni mogą być egzotyczne, czy 

nie wystarczyłyby jakieś inne nieklasyczne konfiguracje materii i promieniowania - 

chociażby wyrwa w środku zakrzywienia czasoprzestrzennego lub „mieszankowa” 

nierównowaga w napędzie czasoprzestrzennym Scotty'ego? Ciągle nie znamy 

odpowiedzi na takie pytania. Choć w żaden sposób nie wykluczają one istnienia 

stabilnych tuneli czasoprzestrzennych w rzeczywistym Wszechświecie, pozostawiają 

otwarte ogólniejsze pytanie, dotyczące tego, czy podróże przez tunel są niemożliwe, 

czy jedynie prawie niemożliwe. Problem tuneli jest nie tylko jednym z przedmiotów 

sporu pomiędzy nauką a fantastyką naukową: jest on kluczem, mogącym otworzyć 

drzwi, które wielu wolałoby pozostawić zamknięte.

NOWE SPOJRZENIE NA WEHIKUŁY CZASU. Tunele, chociaż znakomicie 

by się nadawały do pokonywania olbrzymich odległości w przestrzeni, kryją w sobie 

jeszcze bardziej niezwykłą możliwość, zauważoną ostatnio w odcinku Ucho igielne z 

serii Voyager. Załoga Voyager odkrywa mały tunel wiodący z powrotem do ich 

własnego „kwadrantu alfa” Galaktyki. Po nawiązaniu łączności przez ten tunel 

okazało się ku ich przerażeniu, że prowadzi on nie do kwadrantu alfa, który znali i 

kochali, ale do kwadrantu alfa o jedno pokolenie wcześniej. Dwa końce tunelu 

łączyły przestrzeń w dwóch różnych czasach!

I tym razem twórcy serii Voyager uchwycili sedno sprawy. Jeśli istnieją tunele 

czasoprzestrzenne, niewątpliwie mogą one być wehikułami czasu! Świadomość tego 

zaskakującego faktu narastała w ciągu ostatniego dziesięciolecia, w miarę jak różni 

teoretycy, nie mając nic lepszego do roboty, zaczęli badać fizykę tuneli 

czasoprzestrzennych nieco poważniej. Wykorzystując ideę tuneli, łatwo jest 

zaprojektować wehikuł czasu. Najprostszy chyba przykład znowu zawdzięczamy 

Kipowi Thorne'owi: tunel, którego jeden koniec pozostaje zamocowany, drugi zaś 

porusza się z dużą, ale podświetlną prędkością w odległym obszarze Galaktyki. W 

zasadzie jest to możliwe, nawet jeśli długość tunelu nie ulega zmianom. Używając 

przedstawionego wcześniej dwuwymiarowego modelu tunelu, przesuńmy po prostu 

dolną część powierzchni na lewo, pozwalając przestrzeni „prześlizgiwać się” po 

dolnym otworze tunelu, który przez cały czas znajduje się w tym samym miejscu w 

stosunku do drugiego otworu tunelu:

background image

Ponieważ dolny wylot tunelu porusza się względem przestrzeni, w której jest 

umieszczony, natomiast górny pozostaje w tym samym miejscu, zgodnie ze 

szczególną teorią względności zegary na każdym z końców tunelu odmierzają czas w 

innym tempie. Jeśli jednak długość tunelu nie ulega zmianie, dla kogoś znajdującego 

się wewnątrz tunelu te dwa końce będą się znajdowały względem siebie w 

spoczynku. W tym układzie odniesienia zegary w obu końcach powinny tykać w 

takim samym tempie. Cofnijmy teraz dolną część powierzchni z powrotem w to samo 

miejsce, tak aby dolne wejście do tunelu znalazło się w początkowym położeniu. 

Powiedzmy, że czynność ta - obserwowana przez kogoś znajdującego się w pobliżu 

dolnego wylotu tunelu - zajmuje jeden dzień. Z punktu widzenia obserwatora 

znajdującego się przy górnym końcu tunelu ten sam proces może trwać dziesięć dni. 

Gdyby ten drugi obserwator spojrzał przez tunel na obserwatora znajdującego się na 

dole, zobaczyłby na jego ściennym kalendarzu datę o dziewięć dni wcześniejszą! Jeśli 

teraz zdecyduje się on złożyć wizytę drugiemu obserwatorowi podróżując przez tunel, 

cofnie się w czasie.

Jeśli istnieją stabilne tunele czasoprzestrzenne, musimy przyznać, że wehikuły 

czasu są możliwe. Powróćmy teraz do uwag Einsteina, o których była mowa na 

początku poprzedniego rozdziału. Czy podróże w czasie - a zatem stabilne tunele i 

egzotyczną materię o ujemnej energii - można „wykluczyć ze względów fizycznych”?

Tunele są w końcu tylko jednym z przykładów wehikułów czasu, które 

zaproponowano w ramach ogólnej teorii względności. Jeśli przypomnimy sobie naszą 

poprzednią dyskusję o naturze tej teorii, nie powinno być zaskakujące, że podróże w 

czasie stają się w niej możliwe. Powtórzmy jeszcze raz poglądowy zapis równań 

Einsteina, który podałem wcześniej:

Lewa strona równania 

Prawa strona równania

ZAKRZYWIENIE 

MATERIA I ENERGIA

Lewa strona tego równania określa geometrię czasoprzestrzeni. Prawa strona 

opisuje rozkład materii i energii. Moglibyśmy zapytać, jaka będzie krzywizna 

background image

przestrzeni dla danego rozkładu materii i energii. Ale możemy też działać odwrotnie. 

Dla danej geometrii przestrzeni, włącznie z taką, która zawiera zamknięte krzywe 

czasowe - czyli pętle przyczynowe, pozwalające powrócić do początkowego punktu 

w przestrzeni i czasie (w pętlę taką wpadł Enterprise przed, w trakcie i po zderzeniu z 

Bozemanem) - równania Einsteina określają dokładnie, jaki rozkład materii i energii 

musi jej towarzyszyć. W zasadzie można więc zaprojektować dowolny rodzaj 

wszechświata z podróżami w czasie; równania Einsteina szczegółowo podpowiedzą, 

jakiego rozkładu materii i energii należy użyć. Kluczowe pytanie jest więc 

następujące: czy taki rozkład materii i energii jest fizycznie możliwy?

Przekonaliśmy się już, dlaczego to pytanie pojawia się, gdy dyskutujemy o 

tunelach czasoprzestrzennych. Istnienie stabilnych tuneli wymaga egzotycznej materii 

o ujemnej energii. Rozwiązanie umożliwiające podróże w czasie znalazł w ramach 

ogólnej teorii względności Kurt Godeł. Wymaga ono istnienia wszechświata o stałej, 

jednorodnej gęstości energii i zerowym ciśnieniu; wszechświata, który się obraca, ale 

nie rozszerza. Ostatnio zaproponowano wehikuł czasu związany z istnieniem strun 

kosmicznych, który również wymaga konfiguracji o ujemnej energii. Niedawno 

udowodniono, że w ogólnej teorii względności każda konfiguracja materii, która 

mogłaby pozwalać na podróże w czasie, wymagałaby zastosowania egzotycznych 

rodzajów materii o ujemnej energii z punktu widzenia przynajmniej jednego 

obserwatora.

Ciekawe, że prawie we wszystkich odcinkach Stor Trek mówiących o 

podróżach w czasie lub pętlach czasowych dochodzi również do gwałtownego 

uwolnienia energii, zwykle związanego z wyrwą w środku zakrzywienia 

czasoprzestrzennego. Na przykład czasowa pętla przyczynowa, w którą został 

złapany Enterprise, powstała zaraz po (choć właściwie pojęcia „przed” i „po” tracą 

sens w pętli przyczynowej) zderzeniu z Bozemanem, które spowodowało naruszenie 

zakrzywienia czasoprzestrzennego i zniszczenie Enterprise. Ta sama seria wydarzeń 

powtarzała się wielokrotnie, aż w końcu w jednym cyklu załodze udało się uniknąć 

zderzenia. Chwilowe zamrożenie czasu na pokładzie Enterprise, odkryte przez 

Picarda, Datę, Troia i LaForge'a w odcinku Czasobroz, przypuszczalnie również było 

spowodowane przez narastające naruszenie zakrzywienia czasoprzestrzeni w 

połączeniu z awarią rdzenia silnika na pokładzie pobliskiego statku romulańskiego. 

W odcinku Czas do kwadratu rozległy „węzeł energetyczny” cofnął Picarda w czasie. 

W klasycznym przykładzie podróży w czasie w Stor Trek:. Nagi czas statek 

background image

Enterprise zostaje przerzucony o trzy dni wstecz w wyniku implozji zakrzywienia 

czasoprzestrzennego.

Natomiast olbrzymie zakrzywienie czasoprzestrzeni w ostatnim odcinku z 

serii Następne pokolenie, podróżujące wstecz w czasie i grożące pochłonięciem 

całego Wszechświata, zostało spowodowane jednoczesną eksplozją trzech wersji 

Enterprise, które - choć pochodziły z różnych epok - znalazły się w tym samym 

punkcie przestrzeni.

Wygląda więc na to, że podróże w czasie w rzeczywistym Wszechświecie, 

podobnie jak we wszechświecie Star Trek, związane są z możliwościami istnienia 

egzotycznych konfiguracji materii. Czy jakaś wystarczająco zaawansowana obca 

cywilizacja mogłaby skonstruować stabilny tunel czasoprzestrzenny? Czy potrafimy 

opisać wszystkie rozkłady masy, które mogą prowadzić do podróży w czasie, a 

następnie wykluczyć je „ze względów fizycznych”, jak zapewne życzyłby sobie tego 

Einstein? Na razie nie znamy odpowiedzi na te pytania. Niektóre szczególne 

wehikuły czasu - takie jak wehikuł czasu Godła lub wykorzystujący istnienie strun 

kosmicznych - okazały się nie-fizyczne. Chociaż podróże w czasie przez tunele 

czasoprzestrzenne nie zostały jeszcze ostatecznie wykluczone, wstępne badania 

sugerują, że kwantowe fluktuacje grawitacji mogą spowodować samozagładę tuneli, 

zanim udałoby się je wykorzystać do podróży w czasie.

Ostateczne rozwiązanie problemu podróży w czasie pozostanie 

prawdopodobnie nie znane, dopóki nie powstanie teoria kwantowej grawitacji. Kilka 

odważnych osób, ze Stephenem Hawkingiem na czele, zajęło już jednak stanowisko 

w tej sprawie. Hawking jest przekonany, że podróże w czasie są niemożliwe z 

powodu oczywistych paradoksów z nimi związanych. Zaproponował on „hipotezę 

zachowania chronologii”, twierdząc, że „prawa fizyki nie pozwalają na pojawienie się 

zamkniętych krzywych czasowych”.

Osobiście przychylam się do poglądu Hawkinga. Fizyki nie uprawia się 

jednak za pomocą dekretów. Jak stwierdziłem wcześniej, ogólna teoria względności 

często wykracza poza nasze naiwne oczekiwania. Jako ostrzeżenie przytoczę dwa 

znane mi z historii precedensy, kiedy to znani teoretycy utrzymywali,

że zaproponowane w teorii względności zjawisko powinno zostać uznane za 

niemożliwe, ponieważ muszą go zabraniać prawa fizyki.

Pierwszy raz zdarzyło się to, kiedy młody astrofizyk Subrahmanyan 

Chandrasekhar wysunął przypuszczenie, że jądra gwiazd o masie większej niż 1,4 

background image

masy Słońca nie mogą po spaleniu całego swojego paliwa jądrowego ustabilizować 

się jako białe karły, lecz muszą dalej zapadać się grawitacyjnie. Znany fizyk sir 

Arthur Eddington publicznie zakwestionował ten wynik, mówiąc: „wiele przypadków 

może się przyczynić do uratowania gwiazdy, ale ja chcę silniejszego zabezpieczenia. 

Sądzę, że powinno istnieć prawo natury, które zapobiegałoby zachowaniu się 

gwiazdy w tak absurdalny sposób!” W tamtych czasach wielu astrofizyków stanęło po

stronie Eddington. Pół wieku później Chandrasekhar otrzymał Nagrodę Nobla za 

swoje badania, których wyniki do tego czasu zostały już wielokrotnie potwierdzone.

Nieco ponad 20 lat po tej historii do bardzo podobnego wydarzenia doszło na 

konferencji w Brukseli. J. Robert Oppenheimer, znany amerykański fizyk teoretyk i 

ojciec bomby atomowej, obliczył, że obiekty, zwane gwiazdami neutronowymi -czyli 

pozostałości po supernowych, jeszcze gęstsze niż białe karły - nie mogą mieć masy 

większej od około dwóch mas Słońca, w przeciwnym bowiem razie zapadają się 

dalej, tworząc coś, co dziś nazywamy czarną dziurą. Równie znany uczony, John 

Archibald Wheeler, stwierdził, że wynik ten jest niemożliwy, przytaczając ten sam 

argument, którego użył Eddington, aby odrzucić twierdzenie Chandrasekhara: prawa 

fizyki muszą w jakiś sposób zapobiegać tak absurdalnemu losowi obiektów 

fizycznych. W ciągu następnych dziesięciu lat Wheeler zmienił zdanie i, jak na ironię, 

zasłynął jako ten, który nadał czarnym dziurom ich nazwę.

background image

ROZDZIAŁ 4

DATA KOŃCZY GRĘ

I jam w przyszłość się pogrążał i, jak oka sięgnie trud,

Świat widziałem, który idzie, i wszelaki jego cud.

ALFRED TENNYSON, Zamek w Lockslty

(cytat zawieszony na pokładzie statku Voyager)

Niezależnie od tego, czy w przyszłości opisywanej przez Star Trek może 

istnieć stabilny tunel czasoprzestrzenny i czy załoga Enterprise mogła przenieść się w 

czasie do dziewiętnastowiecznego San Francisco, prawdziwa stawka w tym 

kosmicznym pokerze wiąże się z pytaniem, które doprowadziło nas do dyskusji nad 

zakrzywioną czasoprzestrzenią. Brzmi ono: czy może istnieć napęd 

czasoprzestrzenny? Ponieważ nie wydaje się możliwe, aby Galaktyka była 

podziurawiona stabilnymi tunelami czasoprzestrzennymi, z naszych wcześniejszych 

dyskusji wynika niezbicie, że bez tego rodzaju napędu większość Drogi Mlecznej 

pozostanie na zawsze poza naszym zasięgiem. Nadszedł w końcu czas, aby zająć się 

tym irytującym pytaniem. Odpowiedzią jest głośne: Być może!

Po raz kolejny wiele zawdzięczamy językowej przenikliwości twórców Stor 

Trek. Opisywałem już, dlaczego żaden rakietowy mechanizm napędowy nigdy nie 

ominie trzech przeszkód stojących na drodze do podróży międzygwiezdnych, które 

ustanowiła szczególna teoria względności. Po pierwsze, nic nie może poruszać się 

szybciej niż światło w pustej przestrzeni. Po drugie, zegary obiektów podróżujących z 

prędkością bliską prędkości światła zwalniają. Po trzecie, nawet gdyby rakieta mogła 

przyspieszyć statek kosmiczny do prędkości bliskich prędkości światła, jej 

zapotrzebowanie na paliwo byłoby bardzo wygórowane.

Pomysł polega na tym, aby zamiast jakiegokolwiek typu rakiety używać samej 

czasoprzestrzeni - zakrzywiając ją. Ogólna teoria względności wymaga, abyśmy byli 

nieco bardziej dokładni w naszych stwierdzeniach na temat ruchu. Zamiast mówić, że 

nic nie może poruszać się szybciej niż światło, winniśmy raczej twierdzić, iż nic nie 

może podróżować lokalnie szybciej niż światło. Oznacza to, że nic nie może biec 

szybciej niż światło względem lokalnych mierników odległości. Jeśli jednak 

czasoprzestrzeń jest zakrzywiona, lokalne mierniki odległości nie muszą być takie 

same jak globalne.

background image

Jako przykład niech posłuży nam sam Wszechświat. Według szczególnej 

teorii względności zegary wszystkich obserwatorów znajdujących się w spoczynku 

względem swojego otoczenia odmierzają czas w takim samym tempie. Zatem w 

trakcie przemieszczania się przez Wszechświat mogę co jakiś czas się zatrzymywać, 

umieszczając zegary w takich samych odległościach od siebie w przestrzeni, i 

oczekiwać, że wszystkie one będą odmierzały ten sam czas. Ogólna teoria 

względności tego nie zmienia. Zegary będące lokalnie w spoczynku odmierzają ten 

sam czas. Ogólna teoria względności zezwala jednak, by czasoprzestrzeń się 

rozszerzała. Obiekty, znajdujące się po przeciwnych stronach obserwowalnego 

Wszechświata, oddalają się od siebie z prędkością bliską prędkości światła, ale mimo 

to pozostają w spoczynku względem swojego otoczenia. Jeśli Wszechświat rozszerza 

się jednorodnie ł jest wystarczająco duży - a oba te założenia wydają się prawdziwe - 

istnieją obiekty, których nie możemy jeszcze zobaczyć i które w tej właśnie chwili 

oddalają się od nas o wiele szybciej niż światło, chociaż cywilizacje na tych krańcach 

Wszechświata mogą się znajdować lokalnie w spoczynku względem swojego 

otoczenia.

Krzywizna przestrzeni stwarza więc lukę w argumentach szczególnej teorii 

względności - lukę wystarczająco dużą, aby mógł się przez nią przecisnąć statek 

kosmiczny Federacji. Jeśli istnieje możliwość manipulowania samą 

czasoprzestrzenią, obiekty mogą się poruszać lokalnie z małymi prędkościami, ale 

towarzyszące im rozszerzanie lub kurczenie się przestrzeni pozwala na pokonywanie 

olbrzymich odległości w krótkim czasie. Widzieliśmy już, w jaki sposób daleko idąca 

manipulacja - to znaczy wycinanie i sklejanie odległych części Wszechświata za 

pomocą tunelu czasoprzestrzennego - może tworzyć skróty w czasoprzestrzeni. Chcę 

tutaj pokazać, że nawet jeśli nie będziemy się uciekać do tak drastycznych zabiegów, 

podróże z prędkością ponadświetlną mogą być globalnie możliwe, nawet jeśli nie są 

możliwe lokalnie.

Zasadniczy dowód tego stwierdzenia został ostatnio przedstawiony przez 

Miguela Alcubierre'a, fizyka z Uniwersytetu Walijskiego. Postanowił on dla zabawy 

zbadać, czy w ramach ogólnej teorii względności można znaleźć spójne rozwiązanie 

dopuszczające tego typu podróże. Udało mu się wykazać, że można uzyskać taką 

konfigurację czasoprzestrzeni, w której statek kosmiczny podróżowałby między 

dwoma punktami w dowolnie krótkim czasie. Co więcej, przez cały czas podróży 

statek ten poruszałby się względem swojego otoczenia z prędkościami mniejszymi od 

background image

prędkości światła, dzięki czemu zegary na jego pokładzie byłyby zsynchronizowane z 

zegarami znajdującymi się w punkcie startu oraz w punkcie docelowym. Wygląda 

więc na to, że ogólna teoria względności pozwala nam jednocześnie mieć ciastko i je 

zjeść.

Pomysł jest prosty. Jeśli czasoprzestrzeń można lokalnie ukształtować tak, aby 

rozszerzała się za statkiem, a kurczyła przed nim, statek będzie się poruszał wraz z 

przestrzenią, w której się znajduje, niczym deska surfingowa na fali. Nie przekroczy 

on nigdy prędkości światła, ponieważ światło również będzie się unosiło wraz z 

rozszerzającą się falą przestrzeni.

By lepiej to zrozumieć, wyobraźmy sobie, że znajdujemy się na pokładzie 

takiego statku. Jeśli przestrzeń za nami nagle znacznie się rozszerzy, zauważymy, że 

stacja kosmiczna, którą opuściliśmy przed kilkoma minutami, znajduje się teraz w 

odległości wielu lat świetlnych. Podobnie, jeśli przestrzeń skurczy się przed nami, 

spostrzeżemy, że stacja kosmiczna, do której zmierzamy i która znajdowała się 

uprzednio w odległości kilku lat świetlnych, jest teraz bardzo blisko i można do niej 

dotrzeć w ciągu kilku minut, używając zwykłego napędu rakietowego.

Można tak zaprojektować geometrię czasoprzestrzeni, aby olbrzymie pola 

grawitacyjne, potrzebne do rozszerzania i kurczenia przestrzeni, nie miały nigdy 

dużych wartości w pobliżu statku lub którejś ze stacji kosmicznych. W okolicach 

statku i stacji przestrzeń może być niemal płaska i dzięki temu zegary na statku i w 

stacjach pozostaną zsynchronizowane. Gdzieś między statkiem a stacjami 

grawitacyjne siły pływowe będą olbrzymie, ale nie przeszkodzi to nam, dopóki się 

tam nie znajdziemy.

Takie właśnie rozwiązanie musieli mieć na myśli autorzy Star Trek, kiedy 

wymyślali napęd czasoprzestrzenny, nawet jeśli nie przypomina ono zbytnio 

podanych przez nich opisów technicznych. Czyni za to zadość wszystkim 

postawionym wcześniej wymaganiom, które należy spełnić, aby odbywać z 

powodzeniem kontrolowane podróże międzygalaktyczne. Mamy tu: (1) prędkość 

ponadświetlną, (2) brak dylatacji czasu i (3) brak napędu rakietowego. Pominęliśmy 

oczywiście bardzo ważną kwestię. Nadając samej czasoprzestrzeni własności 

dynamiczne, ogólna teoria względności pozwala na tworzenie „zaprojektowanych 

czasoprzestrzeni”, w których możliwy jest niemal każdy rodzaj ruchu w przestrzeni i 

czasie. Nie za darmo jednak: teoria względności wiąże te czasoprzestrzenie z pewnym 

rozkładem materii i energii. Aby zatem pożądana czasoprzestrzeń była „fizyczna”, 

background image

leżący u jej podstaw rozkład materii i energii musi być osiągalny. Niedługo 

powrócimy do tego problemu.

Pierwszą ciekawą własnością takich zaprojektowanych czasoprzestrzeni jest 

to, że pozwalają nam one powrócić do dawnych problemów Newtona i stworzyć 

amortyzatory bezwładności oraz wiązki holownicze. Idea jest taka sama, jak w 

przypadku napędu czasoprzestrzennego. Jeśli można zakrzywiać czasoprzestrzeń 

wokół statku, obiekty mogą się poruszać osobno lub razem, nie doświadczając 

żadnego lokalnego przyspieszenia, co, jak pamiętamy, było zmorą Newtona. Aby 

uniknąć niewiarygodnych przyspieszeń, koniecznych do osiągnięcia prędkości 

bliskich prędkości światła przy wykorzystaniu napędu pulsacyjnego, musimy uciekać 

się do takich samych trików z czasoprzestrzenią, jak w przypadku użycia napędu 

czasoprzestrzennego. Zanika więc różnica między napędem pulsacyjnym a napędem 

czasoprzestrzennym. Podobnie, aby użyć wiązki holowniczej do przyciągnięcia 

ciężkiego obiektu, takiego jak planeta, należy skurczyć przestrzeń po tej stronie 

planety, która jest bliżej nas, a rozszerzyć po przeciwnej. To proste!

Zakrzywianie czasoprzestrzeni ma również inne zalety. Jeżeli przestrzeń przed 

Enterprise Jest silnie zakrzywiona, jakikolwiek promień świetlny - albo na przykład 

wiązka fazera - zostanie odchylony od statku. Niewątpliwie na tej zasadzie działają 

tarcze deflektorów. I rzeczywiście, z serialu dowiadujemy się, że tarcze deflektorów 

pracują dzięki „spójnej emisji grawitonów”. Ponieważ grawitony są z definicji 

cząstkami, które przenoszą siłę grawitacji, spójna emisja grawitonów jest niczym 

innym, jak tworzeniem spójnego pola grawitacyjnego. W języku współczesnej fizyki 

to właśnie spójne pole grawitacyjne zakrzywia przestrzeń! Tak więc twórcy Stor Trek 

po raz kolejny wybrali właściwe słownictwo.

Wyobrażam sobie, że romulańskie urządzenie maskujące mogłoby działać w 

podobny sposób. Enterprise z rozwiniętymi tarczami deflektora jest, w gruncie 

rzeczy, dobrze zamaskowanym statkiem. W końcu coś, co samoistnie nie świeci, 

widzimy dlatego, że obiekt ten odbija światło, które następnie trafia do nas. 

Maskowanie musi zatem polegać na zakrzywieniu przestrzeni tak, aby promienie 

świetlne zakrzywiały się wokół statku, zamiast się od niego odbijać. Nie różni się to 

prawie od odchylania promieni świetlnych od statku Enterprise. W związku z tym, 

zanim wyemitowany został odcinek Pegaz serii Następne pokolenie, wielu trekkerów 

gnębiło pytanie, dlaczego Federacja nie stosuje technologii maskowania? A zatem 

każda cywilizacja, która potrafi wytwarzać deflektory, powinna również umieć 

background image

budować urządzenia maskujące. W odcinku Pegaz dowiadujemy się, że 

ograniczeniem dla rozwoju urządzeń maskujących było raczej zawarte porozumienie, 

a nie poziom technologii (w ostatnim odcinku serii Następne pokolenie pod tytułem 

Wszystko, co dobre... okazuje się, że Federacja w końcu przyzwala na stosowanie 

maskowania statków).

Kiedy dysponujemy już napędem czasoprzestrzennym działającym zgodnie z 

zasadami ogólnej teorii względności, prędkości uzyskiwane przy użyciu tego napędu 

nabierają bardziej konkretnego znaczenia. Prędkość taka zależałaby od tego, jak 

bardzo kurczy się lub rozszerza objętość przestrzeni przed lub za statkiem. Ustalenia 

dotyczące tych prędkości nigdy nie były ostateczne: wygląda na to, że między 

pierwszą a drugą serią Gene Roddenberry zdecydował, iż prędkości statków 

kosmicznych należy przekalibrować tak, by nie przekraczały 10 warpów. Oznacza to, 

że prędkości tych nie można mierzyć prostą skalą logarytmiczną, w której 10 warpów 

odpowiadałoby na przykład 2

10

 = 1024 x prędkość światła. Według instrukcji 

technicznej serii Następne pokolenie 9,6 warpa - największa prędkość osiągana przez 

Enterprise-D - odpowiada wartości 1909 x prędkość światła, a 10 warpów oznacza 

prędkość nieskończoną. Warto zauważyć, że mimo tego przekalibrowania, co jakiś 

czas namierza się obiekty (takie jak sześcian Borga) poruszające się z prędkościami 

większymi niż 10 warpów, sądzę więc, że nie powinniśmy się przejmować 

szczegółami.

I tyle dobrych wiadomości...

Skoro przekonaliśmy się już, że napęd czasoprzestrzenny nie jest czymś 

całkowicie niemożliwym (przynajmniej w zasadzie), musimy w końcu stawić czoło 

konsekwencjom tego zjawiska dla prawej strony równań Einsteina - to znaczy dla 

rozkładu materii i energii, jaki jest konieczny do stworzenia wymaganego 

zakrzywienia czasoprzestrzeni. Cóż, pod tym względem okazuje się, że sytuacja 

wygląda tu gorzej jeszcze niż w przypadku tuneli czasoprzestrzennych. Obserwatorzy 

podróżujący z wielką prędkością przez tunel czasoprzestrzenny mieliby do czynienia 

z ujemną energią. W przypadku materii potrzebnej do stworzenia napędu 

czasoprzestrzennego nawet obserwator znajdujący się w spoczynku względem statku 

kosmicznego - czyli obecny na jego pokładzie - zarejestrowałby ujemną energię.

Ta sytuacja nie jest aż tak bardzo zaskakująca. Na pewnym poziomie 

wszystkie niezwykłe rozwiązania ogólnej teorii względności - pozwalające 

utrzymywać otwarte tunele, odbywać podróże w czasie i budować silniki 

background image

czasoprzestrzenne -wymagają, by w pewnych skalach materia odpychała 

grawitacyjnie inną materię. W ogólnej teorii względności istnieje nawet twierdzenie 

mówiące, że warunek ten jest równoważny temu, by energia materii była dla pewnych 

obserwatorów ujemna.

Jeszcze bardziej zaskakujące jest to, że z połączenia mechaniki kwantowej ze 

szczególną teorią względności wynika, iż przynajmniej w skalach mikroskopowych 

lokalny rozkład energii może być ujemny. Jak zauważyłem w rozdziale trzecim, 

fluktuacje kwantowe często mają tę własność. Zasadnicze pytanie, na które na razie 

nie znamy odpowiedzi, dotyczy tego, czy znane nam prawa fizyki pozwalają na to, 

aby materia była obdarzona taką własnością w skali makroskopowej. Obecnie nie 

mamy najmniejszego pojęcia, jak można by tworzyć taką materię w zgodzie z 

prawami fizyki.

Zapomnijmy jednak na chwilę o potencjalnych przeszkodach i przypuśćmy, że 

pewnego dnia uda się stworzyć egzotyczną materię, wykorzystując jakąś 

zaawansowaną kwanto-womechaniczną inżynierię materii lub pustej przestrzeni. 

Nawet w takim przypadku wymagania energetyczne, jakie należałoby spełnić, aby w 

opisany sposób bawić się czasoprzestrzenią, byłyby niewyobrażalnie większe od 

mocy koniecznej do osiągnięcia prędkości pulsacyjnych. Rozważmy masę Słońca, 

która jest blisko milion razy większa od masy Ziemi. Pole grawitacyjne na 

powierzchni Słońca wystarcza, aby zakrzywić promień świetlny o mniej niż jedną 

tysięczną stopnia. Jakież olbrzymie pola grawitacyjne należałoby wytworzyć w 

pobliżu statku kosmicznego, aby odchylić o 90 stopni biegnący w jego kierunku 

promień fazera! Jest to jedna z wielu przyczyn, dla których zupełnie niemożliwy jest 

słynny „efekt katapulty”, którym posłużono się po raz pierwszy w klasycznym 

odcinku Jutro będzie wczoraj, aby cofnąć Enterprise w czasie (później w Stor Trek 

IV: Podróż do domu, a także w odcinku Czas do kwadratu z serii Następne 

pokolenie). Pole grawitacyjne w pobliżu powierzchni Słońca jest bardzo małe w 

porównaniu z efektami grawitacyjnymi, jakie byłyby potrzebne, aby zaburzyć 

przestrzeń w opisany tutaj sposób.

Jednym ze sposobów określenia potrzebnej w tym celu energii jest 

porównanie jej z energią niezbędną do stworzenia czarnej dziury wielkości Enterprise 

- ponieważ czarna dziura tej średnicy z pewnością wytworzyłaby pole grawitacyjne, 

które mogłoby znacząco zakrzywić biegnący w pobliżu niej promień świetlny. Masa 

takiej czarnej dziury wynosiłaby 10% masy Słońca. Gdy wyrazimy to w jednostkach 

background image

energii, okaże się, że na wytworzenie takiej czarnej dziury potrzebna byłaby 

całkowita energia, jaką wytwarza Słońce w ciągu swego istnienia.

Gdzie się więc znajdujemy pod koniec tej gry? Wiemy wystarczająco dużo o 

naturze czasoprzestrzeni, aby opisać, w jaki sposób można by, przynajmniej 

teoretycznie, wykorzystać zakrzywioną przestrzeń do podróży międzygwiezdnych 

pokazywanych w Stor Trek. Wiemy, że bez tych niezwykłych możliwości 

prawdopodobnie nigdy nie będziemy podróżować po Galaktyce. Z drugiej strony, nie 

mamy pojęcia, czy fizyczne warunki, konieczne do osiągnięcia tego celu, są możliwe 

praktycznie lub nawet czy są w zasadzie możliwe. Gdyby jednak były, każda 

cywilizacja próbująca je wykorzystać musiałaby zaprząc do tego energię znacznie 

większą niż cokolwiek, co można sobie obecnie wyobrazić.

Można, jak sądzę, przyjąć optymistyczny pogląd, że te naprawdę niezwykłe 

cuda przynajmniej a priori nie są niemożliwe, choć zależą od jednej mało 

prawdopodobnej możliwości: umiejętności tworzenia i przechowywania egzotycznej 

materii i energii. Są powody, aby mieć nadzieję, muszę jednak przyznać, że sam 

jestem tu raczej sceptykiem. Podobnie jak mój kolega, Stephen Hawking, jestem 

przekonany, że paradoksy związane z podróżami w czasie wykluczają taką możliwość

w każdej rozsądnej teorii fizycznej. Ponieważ mniej więcej takie same warunki muszą 

być spełnione dla stworzenia napędu czasoprzestrzennego i tarczy deflektorów, nie 

spodziewam się, że kiedyś zostaną skonstruowane - chociaż już raz się pomyliłem.

Mimo to wciąż jestem optymistą. Według mnie, najbardziej godna szacunku 

jest olbrzymia ilość wiedzy, która przywiodła nas do tego fascynującego progu. 

Żyjemy w odległym zakątku jednej ze 100 miliardów galaktyk obserwowalnego 

Wszechświata. Podobnie jak robaczki na kawałku gumy, mieszkamy we 

Wszechświecie, którego prawdziwa forma jest ukryta przed naszym wzrokiem. W 

ciągu mniej niż dwudziestu pokoleń - od czasów Newtona do dzisiaj - używaliśmy 

prostych praw fizyki, aby rozświetlić głębiny przestrzeni i czasu. Możliwe, że nigdy 

nie będziemy mogli wejść na pokład statków i wyruszyć do gwiazd, ale nawet 

uwięzieni na tej małej błękitnej planecie potrafiliśmy zbadać nocne niebo i odkryć 

niezwykłe zjawiska, a niewątpliwie wiele jeszcze przed nami. Jeśli nawet fizyka nie 

jest w stanie umożliwić nam międzygwiezdnych podróży i wędrówek po Galaktyce, z 

pewnością nam ją przybliża.

background image

CZĘŚĆ II

MATERIA, WSZĘDZIE MATERIA

W części tej czytelnik zapoznaje się z transporterem,

napędem czasoprzestrzennym,

kryształami dwulitu, silnikami na materie

i antymaterię oraz z holodekiem.

background image

ROZDZIAŁ 5

ATOMY CZY BITY

Reg, przesyłanie naprawdę jest najbezpieczniejszym sposobem podróżowania.

GEORDI LaFORGE do porucznika Reginalda Barclaya

w odcinku Królestwo strachu

Życie naśladuje sztukę. Ostatnio ciągle słyszę to samo pytanie: atomy czy bity 

- gdzie leży przyszłość? Trzydzieści lat temu Gene Roddenberry zajmował się tym 

samym problemem z innych powodów. Miał piękny projekt statku kosmicznego oraz 

jeden mały problem: podobnie jak pingwin w wodzie, Enterprise potrafił gładko 

szybować w przestrzeni kosmicznej, lecz - tak jak pingwin na lądzie - miałby 

poważne problemy z podwoziem przy lądowaniu. Co więcej, szczupły tygodniowy 

budżet telewizyjny wykluczał kręcenie co tydzień lądowania olbrzymiego statku 

kosmicznego.

Jak więc rozwiązać ten problem? To proste: spowodować, aby statek nigdy 

nie musiał lądować. Znaleźć jakiś sposób na przenoszenie członków załogi ze statku 

na powierzchnię planety. Zanim można było powiedzieć: „Prześlij mnie”, musiał się 

narodzić transporter.

Chyba żadne inne urządzenie, może z wyjątkiem napędu czasoprzestrzennego, 

nie ubarwia tak bardzo misji każdego statku Federacji. Nawet ci, którzy nigdy nie 

oglądali żadnego odcinka Star Trek, znają przytoczone przed chwilą magiczne 

wyrażenie. Przeniknęło ono do kultury masowej. Słyszałem ostatnio o młodym 

człowieku, który będąc w stanie nietrzeźwym przejechał skrzyżowanie na czerwonym 

świetle i wjechał

na samochód policyjny. Gdy na przesłuchaniu zapytano go, czy ma coś do 

powiedzenia, zrozpaczony młodzian wstał, wyjął portfel, otworzył go i wymamrotał: 

„Prześlij mnie, Scotty!” Ta historyjka jest pewnie nieprawdziwa, lecz świadczy

0 wpływie, jaki hipotetyczna technologia wywarła na naszą kulturę; wpływie 

tym bardziej godnym uwagi, że prawdopodobnie żaden przykład 

fantastycznonaukowej technologii na pokładzie Enterprise nie jest tak kompletnie 

niewiarygodny. Aby stworzyć takie urządzenie, należałoby przezwyciężyć więcej 

problemów - zarówno teoretycznych, jak i praktycznych -niż można sobie wyobrazić. 

Problemy te związane są z rozległymi obszarami fizyki i matematyki, włącznie z 

background image

teorią informacji, mechaniką kwantową, równaniem Einsteina łączącym masę i 

energię, fizyką cząstek elementarnych i tak dalej.

W ten sposób dochodzimy do dyskusji na temat atomów i bitów. Pojęcie 

transportera zmusza nas do zadania kluczowego pytania: jeśli mamy do czynienia z 

problemem przeniesienia ze statku na powierzchnię planety około l O

28

 (l z 28 

zerami) atomów materii wraz ze złożonym wzorem budowy konkretnej istoty 

ludzkiej, jaki jest najszybszy i najbardziej efektywny sposób przeprowadzenia takiej 

operacji? Pytanie jest istotne, ponieważ z tym samym dylematem spotykamy się 

rozważając problem, w jaki sposób najlepiej zwielokrotnić skomplikowany układ 

około l O

26

 atomów, znajdujących się w średniej wielkości książce. Potencjalnie 

rewolucyjnym pomysłem, przynajmniej tak twierdzi wielu guru mediów cyfrowych, 

jest uznanie, że atomy nie są aż tak ważne. Większe znaczenie mają bity.

Rozważmy jako przykład książkę w bibliotece. Biblioteka kupuje zwykle 

jeden egzemplarz książki (czasem kilka - w przypadku autorów, którzy mają więcej 

szczęścia), przechowywany i wypożyczany jednej osobie na raz. Jednak w bibliotece 

cyfrowej tę samą informację można przechowywać w postaci bitów. Bity to jedynki 

lub zera, które łączy się w ośmioelementowe ciągi, zwane bajtami, mogące 

przedstawiać słowa lub liczby. Ta informacja tkwi w pamięci magnetycznej 

komputerów, gdzie każdy bit jest reprezentowany przez namagnesowany (1) lub 

nienamagnesowany (O) obszar. W takim przypadku do tego samego miejsca w 

pamięci komputera może mieć dostęp - w zasadzie w tym samym czasie - dowolna 

liczba użytkowników. Tak więc dzięki bibliotece cyfrowej każda osoba na Ziemi, 

która w przeciwnym razie musiałaby kupić książkę, może ją przeczytać, korzystając 

tylko z jednego źródła. Oczywiście, dysponowanie rzeczywistymi atomami, które 

składają się na książkę, nie odgrywa już w tym wypadku wielkiego znaczenia i jest na 

pewno mniej efektywne, niż przechowywanie bitów (chociaż pozbawia autora 

wpływów ze sprzedaży).

A co z ludźmi? Jeśli planuje się przenosić ludzi, czy należy przemieszczać ich 

atomy, czy tylko informację, którą zawierają? Na pierwszy rzut oka można by sądzić, 

że przeniesienie informacji jest o wiele łatwiejsze, choćby dlatego, że informacja 

może podróżować z prędkością światła. W przypadku ludzi mamy jednak do 

czynienia z dwoma problemami, które nie dotyczą książek: po pierwsze, należy 

wydobyć informację, co nie jest takie łatwe; po drugie, informację trzeba połączyć z 

materią. W końcu ludzie - w przeciwieństwie do książek - potrzebują atomów.

background image

Wydaje się, że twórcy Star Trek nigdy nie wyjaśnili dokładnie, co ma robić 

ich transporter. Czy przesyła on atomy i bity, czy tylko bity? Może się wydawać 

dziwne, że zajmuję się tym zagadnieniem, chociaż instrukcja techniczna serii 

Następne pokolenie opisuje ten proces szczegółowo: najpierw transporter kieruje się 

na cel, następnie odczytuje obraz, który ma być przesłany, „dematerializuje” go, 

przechowuje przez chwilę w „buforze wzorca”, a następnie transmituje „strumień 

materii” w postaci „pierścieniowo związanego promienia” na miejsce przeznaczenia. 

Wygląda więc na to, że transporter przesyła materię razem z informacją.

Jedyny problem związany z owym opisem polega na rym, że nie zgadza się on 

z niektórymi funkcjami transportera. Przynajmniej w dwóch dobrze znanych 

przypadkach transporter zabrał jedną osobę, a dostarczył dwie. W słynnym odcinku 

Wróg wewnętrzny źle działający transporter dzieli Kirka na dwie różne wersje jego 

samego: dobrą i złą. Ciekawszy i bardziej trwały w skutkach obrót sprawy wzięły w 

odcinku Jeszcze jedna szansa serii Następne pokolenie, gdzie dowiadujemy się, że 

porucznik Riker w trakcie przesyłania z planety Nervala IV na statek Potiomkin 

został podzielony na dwie kopie. Jedna z nich dotarła bezpiecznie na Potiomkina, 

podczas gdy drugi egzemplarz wrócił na planetę, gdzie żył samotnie przez osiem lat.

Jeśli transporter przesyła zarówno strumień materii, jak i sygnał informacyjny, 

podział jest niemożliwy. Liczba atomów na końcu podróży musi być taka sama jak na 

początku. A zatem nie da się powielać ludzi. Z drugiej strony, jeśli przesyłana jest 

tylko informacja, można sobie wyobrazić, że zostaje ona połączona z atomami 

przechowywanymi na statku i że wykonuje się w ten sposób dowolną liczbę kopii 

danej osoby.

Podobny problem dotyczący strumienia materii pojawia się, gdy rozpatrujemy 

los obiektów przesyłanych w kosmos w postaci „czystej energii”. Na przykład w 

odcinku Samotny wśród nas w serii Następne pokolenie Picard decyduje się w 

pewnym momencie na przesłanie się w postaci czystej energii, bez ograniczeń, jakie 

nakłada materia. Okazuje się to ponurym i niebezpiecznym doświadczeniem, ale 

udaje mu się odzyskać swą cielesną formę z bufora wzorca. Gdyby jednak strumień 

materii został wysłany w przestrzeń kosmiczną, nie byłoby czego odtwarzać.

Nie zważając na instrukcję techniczną Star Trek, przyjmę agnostyczny punkt 

widzenia i zajmę się problemami, które wiążą się z przesyłaniem zarówno atomów, 

jak i bitów.

KIEDY CIAŁO NIE MA CIAŁA. Co składa się na ludzką istotę? To 

background image

najbardziej chyba fascynujące pytanie dotyczące przesyłania, na które zwykle nawet 

nie próbuje się odpowiadać. Co składa się na istotę ludzką? Czy jesteśmy tylko sumą 

wszystkich naszych atomów? Mówiąc dokładniej, czy gdybyśmy potrafili odtworzyć 

każdy atom swojego ciała w dokładnie takim samym chemicznym stanie wzbudzenia, 

w jakim rzeczywiście znajduje się w danej chwili, stworzylibyśmy funkcjonalnie 

identyczną osobę, mającą dokładnie te same wspomnienia, nadzieje, marzenia, 

ducha? Należy oczekiwać, że tak właśnie się stanie, ale warto zauważyć, że dotykamy 

tutaj wielu wierzeń dotyczących istnienia „duszy”, która jest w jakiś sposób 

odróżnialna od ciała. Co się dzieje z człowiekiem po śmierci? Czyż wiele religii nie 

utrzymuje, że dusza może istnieć nawet wtedy, gdy ciało umrze? Co w takim razie 

dzieje się z duszą w trakcie przesyłania? Transporter oferowałby wspaniałą 

możliwość doświadczalnego rozstrzygnięcia tego problemu. Gdyby jakąś osobę 

przesłano na pokład Enterprise, a ona pozostałaby nietknięta i nie zmieniona w dający 

się zaobserwować sposób, świadczyłoby to zdecydowanie o tym, że istota ludzka nie 

jest niczym więcej niż sumą swoich części, i podałoby w wątpliwość wiele wierzeń 

dotyczących duszy.

Z oczywistych powodów w Star Trek starannie unika się jasnego postawienia 

tej sprawy. Jednakże mimo czysto fizycznego charakteru procesów dematerializacji i 

przesyłania, idea jakiejś mglistej „siły życiowej”, istniejącej poza ograniczeniami 

ciała, jest w serialu stale obecna. Z drugiego i trzeciego pełnometrażowego filmu Star 

Trek (Gniew Chana i W poszukiwaniu Spocka) można wywnioskować, że 

przynajmniej Spock dysponuje „katrą” - żyjącym duchem, który może istnieć poza 

ciałem. Ostatnio w odcinku Cathexis serii Voyager „nerwowa energia” Chakotaya - 

pokrewna sile życiowej - zostaje oddzielona od ciała i wędruje po statku, od osoby do 

osoby, próbując dostać się z powrotem do „domu”.

Nie sądzę, aby można było osiągnąć w tej kwestii jakiś kompromis. Albo 

„dusza”, „katra”, „siła życiowa”, czy jakkolwiek zechcemy to nazwać, stanowi część 

ciała, a my nie jesteśmy niczym więcej niż istotą materialną, albo nie. Starając się nie 

urazić uczuć religijnych, nawet tych żywionych przez Vulcana, zajmę w tej dyskusji 

pozycję neutralną. Uznałem jednak, że zanim pójdziemy dalej, należy zwrócić uwagę, 

iż nawet podstawowego założenia funkcjonowania transportera - atomy i bity są 

wszystkim, co istnieje - nie należy traktować lekceważąco.

PROBLEMY Z BITAMI. Wielu problemów, którymi się wkrótce zajmę, 

można by uniknąć, gdybyśmy zrezygnowali z przenoszenia atomów razem z 

background image

informacją. Każdy, kto ma dostęp do sieci

Internet, wie, jak łatwo jest przesłać strumień danych zawierający, 

powiedzmy, szczegółowe schematy nowego samochodu razem z jego zdjęciami. 

Przesłanie rzeczywistego samochodu jest nieporównanie trudniejsze. Nawet jednak w 

przypadku przesyłania samych bitów pojawiają się dwa bardzo poważne problemy. 

Pierwszy to znany kłopot, z jakim mieli do czynienia na przykład ostatni ludzie, 

którzy widzieli żywego Jimmy'ego Hoffę: jak pozbyć się ciała? Jeśli chcemy przesłać 

tylko informację, atomy należy pozostawić w punkcie wyjścia, a nowy ich zbiór 

zebrać w punkcie docelowym. To dość poważny problem. Zniszczenie l O

28

 atomów 

stanowi nie lada kłopot. Przypuśćmy na przykład, że chcemy zmienić całą tę materię 

w czystą energię. Ile energii otrzymamy? Odpowiedź da nam oczywiście wzór 

Einsteina E - mc

2

. Gdyby nagle przekształcić 50 kilogramów (tyle waży nieduża 

dorosła osoba) materii w energię, uwolnilibyśmy energię równoważną tysiącowi 

bomb wodorowych o sile jednej megatony. Trudno sobie wyobrazić, jak można by to 

zrobić w sposób przyjazny dla środowiska.

Wiąże się z tym jeszcze inny problem. Gdyby można było przeprowadzić taką 

operację, bardzo proste stałoby się powielanie ludzi. Co więcej, byłoby to o wiele 

prostsze, niż ich przenoszenie i przesyłanie, ponieważ nie trzeba byłoby niszczyć 

oryginału. Do kopiowania w ten sposób przedmiotów nieożywionych można się 

przyzwyczaić i wydaje się, że członkowie załóg na pokładach statków potrafią z tym 

żyć. Powielanie żywych istot ludzkich stałoby się jednak z pewnością przyczyną 

kłopotów, o czym świadczą perypetie Rikera w odcinku Jeszcze jedna szansa Skoro 

już same badania nad rekombinacją DNA spowodowały pojawienie się mnóstwa 

problemów etycznych, trudno sobie nawet wyobrazić, jakie zamieszanie powstałoby, 

gdyby można było powielać na życzenie żywe istoty, łącznie z ich pamięcią i 

osobowością. Ludzie przypominaliby programy komputerowe lub książki zapisane na 

dysku. Gdyby ktoś uległ zniszczeniu lub infekcji, można by po prostu uruchomić 

kopię zapasową.

POZOSTAŃMY PRZY ATOMACH. Podane argumenty sugerują, że 

zarówno z praktycznego, jak i z etycznego punktu widzenia lepiej byłoby, gdyby 

transporter przenosił strumień materii wraz z sygnałem informacyjnym, tak jak dzieje 

się to w serialu Star Trek. Wówczas pojawia się jednak problem transportu atomów. 

Okazuje się. że znów wszystko obraca się wokół energii, choć tym razem mamy do 

czynienia z nieco subtelniejszą sytuacją.

background image

W jaki sposób można zdematerializować coś w transporterze? Aby 

odpowiedzieć na to pytanie, musimy dokładniej rozważyć prostszą kwestię - czym 

jest materia? Każda zwyczajna materia składa się z atomów, które z kolei zbudowane 

są z bardzo gęstych jąder otoczonych chmurą elektronów. Każdy, kto pamięta szkolne 

lekcje chemii lub fizyki, wie, że większość objętości atomu to tylko pusta przestrzeń. 

Obszar zajmowany przez zewnętrzne elektrony jest około dziesięciu tysięcy razy 

większy niż przestrzeń, którą okupuje jądro.

Skoro atomy to w głównej mierze pusta przestrzeń, dlaczego materia nie 

przenika przez inną materię? Otóż ściana jest twarda nie dlatego, że składa się z 

cząstek, lecz dzięki obecności pól elektrycznych działających między nimi. Kiedy 

uderzam ręką w biurko, nie przechodzi ona przez blat głównie z powodu odpychania 

elektrycznego działającego na elektrony w atomach mojej ręki. Jest ono wywołane 

obecnością elektronów w atomach biurka, a nie brakiem przestrzeni, w której 

elektrony mogłyby się poruszać.

Pola elektryczne nie tylko nadają materii cielesność - w tym sensie, że 

zapobiegają przenikaniu obiektów nawzajem przez siebie - lecz także utrzymują ją w 

całości. Aby to zmienić, należy przezwyciężyć siły elektryczne działające między 

atomami. Wymaga to pracy, do której wykonania potrzeba energii. W ten właśnie 

sposób zachodzą wszystkie reakcje chemiczne. Konfiguracja poszczególnych skupisk 

atomów i łączących je wiązań może ulec zmianie, gdy dojdzie do przepływu energii. 

Jeśli na przykład dostarczymy pewnej ilości energii do mieszaniny azotanu 

amonowego i oleju napędowego, cząsteczki tych dwóch substancji mogą zmienić 

swoje położenie i w procesie tym zostanie uwolniona „energia wiązania”, łącząca 

substancje wyjściowe. Jeśli proces ten zajdzie wystarczająco szybko, spowoduje 

potężny wybuch.

Energia wiązania między atomami jest jednak bardzo mała w porównaniu z 

energią wiązania cząstek - protonów i neutronów - które tworzą niewiarygodnie gęste 

jądra atomowe. Siły zespalające te cząstki w jądrze odpowiadają energiom wiązania 

miliony razy silniejszym niż energie wiązania atomów. Reakcje jądrowe uwalniają 

więc znacznie więcej energii niż reakcje chemiczne i dlatego broń jądrowa ma tak 

wielką siłę rażenia.

Z kolei energia wiązania, która spaja cząstki elementarne, zwane kwarkami, 

wchodzące w skład protonów i neutronów, jest jeszcze większa niż energia wiązania 

protonów i neutronów w jądrze. Panuje obecnie przekonanie - poparte obliczeniami, 

background image

które przeprowadzamy w ramach teorii opisującej oddziaływania kwarków - że 

całkowite rozdzielenie kwarków, tworzących każdy proton i neutron, wymagałoby 

nieskończonej energii.

Wynikałoby stąd, że całkowite rozbicie materii na jej fundamentalne składniki 

- kwarki - jest niemożliwe; przynajmniej w temperaturze pokojowej. Ta sama teoria, 

która opisuje oddziaływania kwarków wewnątrz protonów i neutronów, mówi jednak, 

że gdybyśmy podgrzali jądro atomowe do 1000 miliardów stopni (czyli do 

temperatury mniej więcej milion razy większej niż temperatura panująca w centrum 

Słońca), nie tylko kwarki utraciłyby swoją energię wiązania, lecz materia nagle 

zostałaby pozbawiona prawie całej swojej masy. Materia zmieniłaby się w 

promieniowanie, czyli - posługując się językiem opisującym działanie transportera - 

uległaby dematerializacji.

Aby zatem przezwyciężyć energię wiązania materii na najbardziej 

podstawowym poziomie (poziomie, do którego odwołuje się instrukcja techniczna 

Star Trek, wystarczy podgrzać ją do 1000 miliardów stopni. W jednostkach energii 

oznacza to, że należy dostarczyć w postaci ciepła około 10% masy spoczynkowej 

protonów i neutronów. Podgrzanie do takiej temperatury zbioru atomów o rozmiarach 

istoty ludzkiej wymagałoby mniej więcej 10% energii potrzebnej do zanihilowania tej 

ilości materii, czyli energii równoważnej stu bombom wodorowym o sile jednej 

megatony.

Zapoznawszy się z tym trudnym do spełnienia warunkiem, można by 

dyskutować, czy scenariusz, który właśnie opisałem, nie jest przypadkiem 

przesadzony. Może nie musimy rozbijać materii aż na kwarki. Może do celów 

przesyłania ciał wystarczy dematerializacja do poziomu protonów i neutronów lub 

tylko atomów. Wymagania energetyczne byłyby wtedy na pewno o wiele niższe, 

chociaż ciągle duże. Niestety, przymknięcie oka na ten problem powoduje, że zaraz 

stajemy wobec następnego i to znacznie poważniejszego. Gdy uzyskamy już strumień 

materii składający się z poszczególnych protonów, neutronów i elektronów (lub 

nawet całych atomów), musimy go jeszcze przesłać - najlepiej z prędkością będącą 

znacznym ułamkiem prędkości światła.

Aby zmusić cząstki, takie jak protony i neutrony, do poruszania się z 

prędkościami bliskimi prędkości światła, należy im dostarczyć energii 

porównywalnej z energią odpowiadającą ich masie spoczynkowej. Okazuje się, że ta 

ilość energii jest około dziesięciu razy większa od ilości potrzebnej do podgrzania i 

background image

„roztopienia” protonów na kwarki. Niemniej - choć przyspieszenie protonów do 

prędkości bliskich prędkości światła wymaga więcej energii na jedną cząstkę -jest to 

łatwiejsze, niż umieszczenie i utrzymanie wewnątrz protonów wystarczająco dużej 

energii przez odpowiednio długi czas, aby podgrzać je i rozłożyć na kwarki. Dlatego 

właśnie potrafimy dziś, chociaż bardzo dużym kosztem, budować olbrzymie 

akceleratory cząstek - takie jak tewatron w Fermilabie w Batawii (stan Illinois) - które 

potrafią przyspieszać pojedyncze protony do prędkości równej 99,9% prędkości 

światła. Ciągle jednak nie udało nam się skonstruować akceleratora, w którym można 

by bombardować protony z wystarczająco dużą energią, aby stopić je na ich części 

składowe, czyli kwarki. Zaobserwowanie tego topnienia materii jest jednym z celów 

fizyków zajmujących się projektowaniem olbrzymich akceleratorów nowej generacji 

-na przykład urządzenia budowanego obecnie w Narodowym Laboratorium 

Brookhaven na Long Island.

Muszę znowu wspomnieć o trafnym doborze terminologii dokonanym przez 

twórców Star Trek. Topienie protonów na kwarki nazywamy w fizyce przejściem 

fazowym. Proszę sobie wyobrazić, że kiedy w poszukiwaniu nazw części 

transportera,

które dematerializują obiekty, przewertuje się instrukcję techniczną serii 

Następne pokolenie, natrafia się na termin „cewki przejścia fazowego”.

Przyszli twórcy transporterów staną więc przed wyborem. Pierwsza 

możliwość zakłada znalezienie źródła energii, które może przez jakiś czas 

produkować moc około 10 tysięcy razy większą niż całkowita moc zużywana obecnie 

na Ziemi, wtedy bowiem będzie można przesyłać „strumień materii” i informacji z 

prędkością bliską prędkości światła. Druga możliwość związana jest z 

dziesięciokrotnym zmniejszeniem całkowitych wymagań energetycznych, zakłada 

jednak, że znajdziemy sposób, aby w jednej chwili podgrzać istotę ludzką do 

temperatury około miliona razy większej niż temperatura panująca we wnętrzu 

Słońca.

JEŚLI TO AUTOSTRADA INFORMACYJNA, LEPIEJ JEDŹMY PASEM 

SZYBKIEGO RUCHU. Pisząc te słowa na moim domowym komputerze Power PC, 

nie mogę nadziwić się postępowi technicznemu od czasu, gdy ponad dziesięć lat temu 

kupiłem mojego pierwszego Macintosha. Pamiętam, że wewnętrzna pamięć tej 

maszyny wynosiła 128 kilobajtów, co nie jest wielkością imponującą w porównaniu z 

16 megabajtami w moim obecnym komputerze i 128 megabajtami w szybkiej stacji 

background image

roboczej, którą mam w swoim biurze na Wydziale Fizyki Case Western Reserve 

University. A zatem w ciągu jednej dekady pojemność wewnętrznej pamięci mojego 

komputera wzrosła tysiąckrotnie! W podobny sposób zwiększyła się pojemność 

pamięci na twardym dysku. Mój pierwszy komputer w ogóle nie miał twardego dysku 

ł trzeba było używać dyskietek, na których mieściło się 400 kilobajtów informacji. 

Mój obecny komputer domowy jest wyposażony w twardy dysk o pojemności 500 

megabajtów - co znowu oznacza tysiąckrotny wzrost możliwości przechowywania 

informacji. Szybkość mojego domowego komputera również znacznie się zwiększyła 

w ciągu ostatnich dziesięciu lat. Przypuszczam, że wykonuje on teraz szczegółowe 

obliczenia numeryczne prawie sto razy szybciej niż mój pierwszy Macintosh. 

Natomiast moja stacja robocza na uniwersytecie jest prawdopodobnie jeszcze 10 razy 

szybsza i może wykonywać prawie pół miliarda operacji na sekundę.

Jakkolwiek by na to nie spojrzeć, dokonał się niewiarygodny postęp. 

Najlepsze komputery ogólnego przeznaczenia w ciągu ostatniej dekady mniej więcej 

stukrotnie zwiększyły swoją szybkość i pojemność pamięci. Pomijam tutaj komputery 

przeznaczone do specjalnych zadań - te cudeńka osiągają prędkości przekraczające 10 

miliardów operacji na sekundę. Okazało się też, że niektóre urządzenia specjalnego 

przeznaczenia należałoby w zasadzie budować, wykorzystując układy biologiczne 

oparte na DNA, co mogłoby przyspieszyć ich działanie o kilka rzędów wielkości.

Można się zastanawiać, do czego to wszystko zmierza i czy należy 

spodziewać się tak szybkiego rozwoju także w przyszłości. I czy konieczne jest 

utrzymanie tego tempa. Zauważyłem już, że elementem określającym tempo 

przepływu informacji jest końcowy użytkownik. Możemy przyswoić sobie tylko 

pewną ilość informacji. Aby się o tym przekonać, wystarczy przez kilka godzin 

korzystać z sieci Internet. Często się dziwię, dlaczego mimo niewiarygodnych 

możliwości, jakie mam do dyspozycji, moja własna produktywność nie wzrosła ani w 

części tak bardzo, jak możliwości mojego komputera. Sądzę, że odpowiedź jest 

oczywista. Nie ograniczają mnie możliwości komputera, lecz moje własne. Z tego 

powodu często się mówi, że komputery mogą być następną fazą ewolucji człowieka. 

Nie ulega wątpliwości, że Data, chociaż pozbawiony uczuć, pod wieloma względami 

znacznie przewyższa swoich kolegów z załogi. A jest on, jak to zostało powiedziane 

w odcinku Miara człowieka, żywą istotą.

To tylko dygresja. Wspominam o tempie wzrostu możliwości komputerów w 

ciągu ostatniej dekady, gdyż chcę rozpocząć dyskusję o potrzebach, którym 

background image

należałoby sprostać, aby poradzić sobie z przechowywaniem i odzyskiwaniem 

informacji koniecznej do działania transporterów. Trzeba oczywiście przyznać, że 

daleko nam jeszcze do spełnienia tych wymagań.

Spróbujmy w prosty sposób ocenić, jaka ilość informacji zapisana jest w 

ludzkim ciele. Ustaliliśmy już, że ludzkie ciało składa się w przybliżeniu z l0

28

 

atomów. Dla każdego atomu musimy zapisać miejsce, w którym się on znajduje, co 

wymaga podania trzech współrzędnych (wartości na osiach x, y, z). Następnie 

powinniśmy zapisać wewnętrzny stan każdego atomu, a więc między innymi 

informacje, które z jego poziomów energetycznych są zajęte przez elektrony, czy jest 

związany z sąsiednim atomem i tworzy z nim cząsteczkę, czy ta cząsteczka drga lub 

się obraca i tak dalej. Bądźmy ostrożni i przyjmijmy, że wszystko uda się zapisać w 

jednym kilobajcie danych. (Mniej więcej tyle informacji mieści się na stronie 

maszynopisu). Oznacza to, że aby przechować wzorzec człowieka w buforze wzorca, 

potrzebowalibyśmy około l0

28

 kilobajtów. Przypominam, że jest to l z 28 zerami.

Porównajmy to z całą informacją zawartą we wszystkich książkach, jakie 

kiedykolwiek napisano. Największe biblioteki zgromadziły kilka milionów tomów, 

bądźmy więc szczodrzy i przypuśćmy, że istnieje miliard różnych książek (jedna na 

każde pięć osób żyjących obecnie na naszej planecie). Przypuśćmy, że każda książka 

zawiera informację równoważną tysiącowi stron maszynopisu (znowu jest to ocena 

nieco zawyżona), czyli mniej więcej jednemu megabajtowi. Cała informacja we 

wszystkich książkach, jakie kiedykolwiek napisano, wymagałaby więc l O

12

, czyli 

około miliona milionów kilobajtów pamięci. Jest to wartość o szesnaście rzędów 

wielkości mniejsza - czyli jedna dziesięciomilionowa jednej miliardowej - od ilości 

pamięci potrzebnej do zapisania wzorca jednego człowieka! Mając do czynienia z tak 

dużymi liczbami, trudno objąć cały ogrom zagadnienia. Spróbujmy takiego 

porównania: wielkość pamięci potrzebna do zapisania wzorca człowieka w stosunku 

do ilości informacji zawartej we wszystkich istniejących książkach jest 10 tysięcy 

razy większa niż stosunek ilości informacji zawartej we wszystkich książkach do 

ilości informacji zawartej na jednej stronie tej książki.

Problem przechowywania takiej ilości informacji nie jest, jak lubią mówić 

fizycy, trywialny. Największe dostępne dziś na rynku dyski twarde mogą pomieścić 

około 10 gigabajtów, czyli 10 tysięcy megabajtów. Jeśli przyjąć, że każdy dysk ma 

grubość 10 centymetrów, wszystkie dyski potrzebne do przechowania jednego wzorca 

człowieka, ułożone jeden na drugim, miałyby wysokość równą 1/3 drogi dzielącej nas 

background image

od środka Galaktyki, czyli około 10 tysięcy lat świetlnych, a zatem 5 lat podróży 

statkiem Enterprise z prędkością 9 warpów!

Odzyskanie tej informacji w czasie rzeczywistym to poważne wyzwanie. 

Najszybsze obecnie urządzenia do przesyłania informacji cyfrowej mogą działać z 

prędkością nieco mniejszą niż 100 megabajtów na sekundę. Gdybyśmy pracowali w 

tym tempie, zapisanie danych określających wzorzec człowieka na taśmie 

wymagałoby czasu około dwóch tysięcy razy dłuższego niż wiek Wszechświata 

(przyjmujemy, że wiek ten wynosi około 10 miliardów lat)! Wyobraźmy sobie to 

dramatyczne napięcie: Kirk i McCoy wydostali się na powierzchnię kolonii karnej w 

Rura Penthe. Musimy ich przesłać, czyli przetransmitować milion miliardów 

miliardów megabajtów informacji w czasie, którego potrzebuje strażnik, aby 

wycelować w nich broń przed wystrzałem. Dysponujemy więc sekundami, a nie 

czasem porównywalnym z wiekiem Wszechświata.

Myślę, że sytuacja jest jasna. Przy takim wyczynie niewielki wydaje się 

wysiłek wkładany w trwające obecnie badania nad ludzkim genomem, których celem 

jest odczytanie i zapisanie całego kodu genetycznego człowieka, zawartego w 

mikroskopijnych nitkach DNA. Koszty tego przedsięwzięcia wynoszą wiele 

miliardów dolarów. W ciągu ostatniej dekady badania te prowadzono w wielu 

laboratoriach na całym świecie. Łatwo się domyślić, że wspominam o tym tylko po 

to, aby dodać kolejną pozycję do listy trudności wskazujących na niewielkie szansę 

skonstruowania transportera. Nie możemy jednak wykluczyć, że w XXIII wieku 

sprawy będą się przedstawiały inaczej. Mój optymizm bierze się z ekstrapolacji 

obecnego tempa rozwoju technologii komputerowej. Biorąc pod uwagę postęp w 

przechowywaniu informacji i prędkości jej przesyłania, dochodzę do wniosku, że 

zwiększają się one stukrotnie co dziesięć lat. Jeśli nawet będziemy ostrożni i 

podzielimy to przez 10 oraz przyjmiemy, że nasze możliwości są obecnie mniej 

więcej 10 do 21 potęgi (10

21

) za małe, możemy oczekiwać, że za 210 lat - na 

początku dwudziestego trzeciego stulecia - technologia komputerowa, potrafiąca 

zmierzyć się z problemem przesyłania informacji przy użyciu transportera, znajdzie 

się w zasięgu ręki.

Mówię to nie mając oczywiście pojęcia, w jaki sposób mogłoby się to 

dokonać. Jasne jest, że aby w urządzeniu wielkości człowieka przechowywać ponad 

10

25

 kilobajtów informacji, każdy jego atom musiałby być wykorzystywany jako 

komórka pamięci. Bardzo obiecujące pod tym względem wydają się pojawiające się 

background image

obecnie idee komputerów biologicznych, w których dynamika molekularna naśladuje 

cyfrowe procesy logiczne, umożliwiając jednoczesne działanie około 10

25

 cząstek w 

makroskopowym zbiorze.

Powinienem wszakże ostrzec Czytelników: nie jestem informatykiem. Mój 

ostrożny optymizm może być więc jedynie odbiciem mojej niewiedzy. Uspokaja mnie 

nieco przykład ludzkiego mózgu, który o lata świetlne wyprzedza w złożoności i 

wszechstronności jakikolwiek istniejący układ obliczeniowy. Jeśli dobór naturalny 

mógł stworzyć tak wspaniałe urządzenie do przechowywania i odzyskiwania 

informacji, sądzę, że wiele jeszcze mamy do odkrycia.

ACH, TE KWANTY! Aby jeszcze bardziej zbliżyć się do rzeczywistości, 

wystarczy wypowiedzieć dwa słowa: mechanika kwantowa. Na poziomie 

mikroskopowym, na który musimy zejść, aby zapisać wzór materii, a następnie 

odtworzyć go w transporterze, fizyką rządzą niezwykłe prawa mechaniki kwantowej; 

to dzięki nim cząstki mogą zachowywać się jak fale, a fale jak cząstki. Nie będę się 

tutaj wdawał w wykład mechaniki kwantowej. Najważniejsza idea mówi, że w 

skalach mikroskopowych tego, co jest obserwowane, i tego, co dokonuje obserwacji, 

nie można rozdzielić. Wykonanie pomiaru oznacza zmianę, zwykle trwałą, układu. 

To proste prawo można ująć na wiele różnych sposobów, ale chyba najsłynniejszym z 

nich jest zasada nieoznaczoności Helsenberga. To fundamentalne prawo - które, jak 

się wydaje, znosi klasyczne pojęcie determinizmu w fizyce, chociaż faktycznie na 

podstawowym poziomie tego nie robi -dzieli świat fizyczny na dwa zbiory 

obserwowalnych wielkości; coś w rodzaju yin i yang. Mówi ono, że niezależnie od 

tego, jaka technologia zostanie wynaleziona w przyszłości, nie można zmierzyć 

pewnych kombinacji wielkości z dowolnie dużą dokładnością. W skalach 

mikroskopowych położenie cząstki można zmierzyć z dowolną dokładnością. Jednak 

Heisenberg twierdzi, że nie możemy wtedy dokładnie określić jej prędkości (a zatem 

również położenia w następnej chwili). Możemy również z dowolną dokładnością 

sprawdzić stan energetyczny atomu. W tym jednak przypadku nie uda nam się 

precyzyjnie określić, jak długo będzie on przebywał w tym stanie. Listę można by 

ciągnąć dalej.

Te związki są istotą mechaniki kwantowej i nigdy nie stracą mocy. Jak długo 

mamy do czynienia z odległościami, w których obowiązują prawa mechaniki 

kwantowej, musimy je tolerować. (Wszystko wskazuje na to, że odległości te są 

większe od odległości, w których stają się znaczące efekty kwantowej grawitacji, 

background image

czyli od około 10

33

 cm).

Istnieje dość niezdarny, ale interesujący argument fizyczny, który pozwala 

lepiej zrozumieć zasadę nieoznaczoności. Mechanika kwantowa obdarza wszystkie 

cząstki własnościami falowymi, a fale mają pewną uderzającą cechę: ulegają 

zaburzeniu tylko przy spotkaniu z przedmiotami większymi niż ich długość 

{odległość między kolejnymi grzbietami fali). Aby się o tym przekonać, wystarczy 

obserwować fale oceanu. Niewielki kamień wystający z wody nie będzie miał 

wpływu na fale uderzające o brzeg, natomiast za dużym głazem powstanie obszar 

spokojnej wody.

Jeśli chcemy „oświetlić” atom - to znaczy odbić od niego światło tak, aby 

można było zobaczyć, gdzie się znajduje - musimy użyć światła o długości fali 

wystarczająco małej, aby atom mógł je zaburzyć. Prawa mechaniki kwantowej mówią 

jednak, że fale światła rozchodzą się w małych porcjach, czyli kwantach, które 

nazywamy fotonami (jak w „torpedach fotonowych” statków kosmicznych, nie 

składających się jednak z fotonów). Poszczególne fotony o danej długości fali niosą 

energię odwrotnie proporcjonalną do tej długości. Z im większą zdolnością 

rozdzielczą chcemy widzieć, tym mniejszej długości światła musimy użyć. Im 

mniejsza jednak jest długość fali,

tym większa energia kwantów. Jeśli bombardujemy atom 

wysokoenergetycznym fotonem, możemy stwierdzić, gdzie dokładnie znajdował się 

atom, kiedy uderzył w niego foton, ale sam proces obserwacji - to znaczy uderzenie 

fotonu w atom -z pewnością dostarczy atomowi znacznej energii, zmieniając w ten 

sposób jego prędkość i kierunek ruchu.

Nie można zatem określić położenia atomów i ich stanów energetycznych z 

dokładnością konieczną do precyzyjnego odtworzenia wzorca człowieka. Zmierzone 

wielkości zawsze będą nieco niedokładne. Co by to oznaczało dla produktu 

końcowego po operacji przesłania, jest szczegółową kwestią biologiczną, na której 

temat mogę tylko spekulować.

Problem ten nie pozostał nie zauważony przez twórców Star Trek, którzy byli 

świadomi nieuniknionych ograniczeń, jakie nakłada na transporter mechanika 

kwantowa. Mając jednak do dyspozycji coś, do czego fizycy zwykle nie mogą się 

odwołać - to znaczy swobodę artystyczną - wprowadzili „kompensatory 

Heisenberga”, które umożliwiają „kwantową analizę” obiektów. Kiedy konsultanta 

technicznego Star Trek, Michaela Okudę, zapytano, jak działają kompensatory, 

background image

odpowiedział po prostu: „Bardzo dobrze, dziękuję!”

Kompensatory Heisenberga odgrywają w filmie jeszcze jedną rolę. Zdziwiło 

mnie, dlaczego transportery nie są również replikatorami form życia. W końcu 

replikatory istnieją na pokładach statków i powodują, że szklanki wody lub wina 

pojawiają się w magiczny sposób w kajucie na słowne żądanie każdego członka 

załogi. Wygląda na to, że technologia replikatorów operuje tylko na „poziomie 

cząsteczkowym” i nie osiąga „kwantowej zdolności rozdzielczej”. Ma to wyjaśniać, 

dlaczego powielanie istot żywych za pomocą replikatora nie jest możliwe. Pozwala to 

również wytłumaczyć ciągłe narzekania, że jedzenie pochodzące z replikatorów nigdy 

nie jest zupełnie takie samo jak prawdziwe, oraz dlaczego Riker i inni wolą 

przyrządzać omlety i inne przysmaki w tradycyjny sposób.

ZOBACZYĆ ZNACZY UWIERZYĆ. Jakby nie dość tego wszystkiego, 

istnieje jeszcze jedna trudność związana z ideą przesyłanią. Przesyłanie osoby ze 

statku jest wystarczająco trudne, ale zabranie jej z powrotem na pokład może być 

jeszcze trudniejsze. Aby dostarczyć członka załogi z powrotem na statek, czujniki na 

pokładzie Enterprise muszą odnaleźć go na planecie. Co więcej, powinny odczytać 

jego indywidualny wzorzec, zanim ulegnie on dematerializacji i przesłaniu w postaci 

strumienia materii. Enterprise musi więc być wyposażony w teleskop o mocy 

wystarczającej do oglądania z atomową zdolnością rozdzielczą przedmiotów na 

powierzchni planety, a czasem nawet pod nią. W serialu dowiadujemy się, że typowy 

zasięg działania transportera wynosi około 40 tysięcy kilometrów, czyli jest mniej 

więcej trzy razy większy od średnicy Ziemi. Tę właśnie liczbę wykorzystamy do 

przeprowadzenia odpowiednich obliczeń.

Niemal każdy widział zdjęcia kopuł wielkich teleskopów ziemskich, takich 

jak teleskop Kecka na Hawajach (największy na świecie) czy teleskop na Mount 

Palomar w Kalifornii. Budowa coraz większych teleskopów nie jest po prostu 

przejawem gigantomanii, o którą niektórzy, włącznie z wieloma członkami Kongresu 

Stanów Zjednoczonych, lubią oskarżać naukowców. Aby zobaczyć słabo widoczne i 

bardzo oddalone ciała niebieskie, potrzebujemy po prostu coraz większych 

teleskopów; podobnie, gdy chcemy badać strukturę materii w coraz mniejszych 

skalach, budujemy coraz większe akceleratory. Powód jest prosty: ponieważ światło 

ma naturę falową, za każdym razem, gdy przechodzi przez otwór, ugina się, czyli 

nieco rozmazuje. Gdy światło z odległego źródła punktowego przechodzi przez 

soczewkę teleskopu, obraz nieco się rozmywa i zamiast punktowego źródła widzimy 

background image

rozmazaną plamkę światła. Jeśli dwa punktowe źródła światła znajdują się bliżej 

siebie, niż wynoszą rozmiary ich obrazów, nie dostrzeżemy ich jako oddzielnych 

obiektów, ponieważ obrazy będą się na siebie nakładały. Im większa jest soczewka, 

tym mniej rozmazany jest obraz. Aby więc obserwować coraz mniejsze obiekty, 

należy wyposażać teleskopy w coraz większe soczewki.

Jest jeszcze inne kryterium jakości teleskopowych obrazów. Bez względu na 

to, jakiego promieniowania się używa, długość fali światła musi być mniejsza niż 

rozmiar obiektu, który chce się zaobserwować (zgodnie z argumentacją przytoczoną 

przeze mnie wcześniej). Jeśli więc chce się oglądać materię z dobrą zdolnością 

rozdzielczą w skalach atomowych, gdzie istotne są odległości sięgające kilku 

miliardowych centymetra, należy użyć promieniowania, którego długość fali jest 

krótsza niż jedna miliardowa centymetra. Jeśli zdecydujemy się na promieniowanie 

elektromagnetyczne, będzie to oznaczało, że musimy użyć promieniowania 

rentgenowskiego lub y. I od razu pojawia się problem: takie promieniowanie jest 

szkodliwe dla życia i atmosfera dowolnej planety klasy M zatrzyma je tak, jak robi to 

atmosfera Ziemi. Transporter będzie więc musiał wykorzystywać nośniki 

nieelektromagnetyczne, takie jak neutrina lub grawitony, co wiąże się z nowymi 

problemami...

Tak czy owak, można przeprowadzić odpowiednie obliczenia, zakładając, że 

Enterprise posługuje się promieniowaniem o długości fali mniejszej niż jedna 

miliardowa centymetra ł ma za zadanie odczytanie wzorca obiektu znajdującego się w 

odległości 40 tysięcy kilometrów z atomową zdolnością rozdzielczą. Okazuje się, że 

aby wykonać to zadanie, statek potrzebowałby teleskopu z soczewką o średnicy 

większej od około 50 tysięcy kilometrów! Gdyby miała mniejsze rozmiary, nie 

istniałby żaden sposób, nawet w teorii, aby zobaczyć pojedyncze atomy. Chociaż 

Enterprise-D ma imponujące rozmiary, nie jest aż tak wielki...

Tak jak obiecałem, rozważania nad transporterami doprowadziły nas do 

mechaniki kwantowej, fizyki cząstek, informatyki, odkrytego przez Einsteina 

związku między masą i energią, a nawet do kwestii istnienia ludzkiej duszy. Nie 

powinniśmy być więc za bardzo rozczarowani oczywistą niemożliwością zbudowania 

urządzenia, które mogłoby wykonywać konieczne operacje. Podchodząc do sprawy z 

mniej negatywnym nastawieniem, powiedzielibyśmy, że zbudowanie transportera 

wymagałoby podgrzewania materii do temperatury milion razy większej od tej, jaka

panuje w środku Słońca, wyzwalania w jednym urządzeniu większej ilości 

background image

energii niż zużywa obecnie cala ludzkość, zbudowania teleskopów większych od 

Ziemi, zwiększenia możliwości komputerów tysiąc miliardów miliardów razy oraz 

obejścia praw mechaniki kwantowej. Nie powinniśmy się więc dziwić, że porucznik 

Barclay obawiał się przesyłania! Sądzę, że nawet Gene Roddenberry, gdyby w 

prawdziwym życiu stanął przed taką możliwością, wolałby raczej zafundować sobie 

statek kosmiczny potrafiący lądować na powierzchni planety.

background image

ROZDZIAŁ 6

ILE CZADU ZA DOLARA?

Nie istnieje nic nierzeczywistego

Pierwsze prawo metafizyki Kir-kin-thy (Star Trek IV: Podróż do domu)

Gdy wyjeżdża się z Chicago na zachód drogą stanową numer 88, po przebyciu 

niespełna 50 km, w pobliżu Aurory, można zobaczyć, jak chaotyczna, rzadka 

zabudowa stopniowo ustępuje miejsca gładkiej, środkowozachodniej prerii, która 

rozpościera się jak okiem sięgnąć. Nieco na północ od drogi znajduje się kolisty teren 

opasany przez coś, co przypomina fosę. Wewnątrz tego okręgu pasą się bizony, a w 

licznych stawach pływa wiele gatunków kaczek i gęsi.

To, co dzieje się sześć metrów pod ziemią, znacznie odbiega od spokojnej, 

sielankowej atmosfery na powierzchni. Czterysta tysięcy razy na sekundę silna 

wiązka antyprotonów zderza się tam czołowo z wiązką protonów, produkując 

strumień setek lub tysięcy wtórnych cząstek: elektronów, pozytonów, pionów i 

innych.

Pod ziemią znajduje się Narodowe Laboratorium Akceleratorowe im. Enrico 

Fermiego, w skrócie: Fermilab. Mieści ono akcelerator cząstek, w którym otrzymuje 

się największe na świecie energie. Co więcej, znajduje się tu również największy na 

świecie magazyn antyprotonów. Tutaj antymateria nie ma nic wspólnego z fantastyką 

naukową. Jest powszednim chlebem tysięcy naukowców, którzy korzystają z 

urządzeń Fermilabu.

W tym właśnie Fermilab i Enterprise są do siebie podobne. Antymateria ma 

podstawowe znaczenie dla działania statku:

zasila bowiem napęd czasoprzestrzenny. Jak wspomniałem wcześniej, nie ma 

bardziej efektywnego sposobu zasilania układu napędowego (chociaż napęd 

czasoprzestrzenny działa inaczej niż napęd rakietowy). Kiedy materia spotyka się z 

antymaterią, dochodzi do ich anihilacji i powstaje czyste promieniowanie, które 

rozchodzi się z prędkością światła.

Należy oczywiście dołożyć wszelkich starań, by mieć pewność, że 

antymateria znajduje się pod kontrolą, zwłaszcza jeśli przechowywana jest w dużych 

ilościach. Kiedy na pokładzie statku przestaje działać układ przechowywania 

antymaterii - zdarzyło się to na Enterprise po zderzeniu z Bozemanem, a także na 

background image

statku Yamato, którego system przestał działać po użyciu ikonianskiej broni 

komputerowej - w krótkim czasie grozi mu całkowite zniszczenie. Układ 

przechowywania antymaterii ma tak podstawowe znaczenie dla działania statku 

kosmicznego, że trudno zrozumieć, dlaczego porucznik Federacji, Deanna Troi, nie 

wiedziała o skutkach awarii tego układu, kiedy na pewien czas przejęła dowództwo 

na Enterprise w odcinku Katastrofa z serii Następne pokolenie, po tym, jak statek 

zderzył się z dwoma „włóknami kwantowymi”. Nie można w żadnym razie uznać za 

wytłumaczenie tego, że z wykształcenia była psychologiem!

Konstrukcja układu przechowywania antymaterii na pokładzie statków 

kosmicznych może odwoływać się do tej samej zasady, która pozwala w Fermilabie 

przechowywać przez dłuższy czas antyprotony. Antyprotony i antyelektrony 

(nazywane pozytonami) są cząstkami naładowanymi elektrycznie. W obecności pola 

magnetycznego naładowane cząstki poruszają się po orbitach kołowych. Jeśli zatem 

przyspieszy się cząstki w polach elektrycznych, a następnie włączy pole magnetyczne 

o właściwej sile, będą się one poruszały po okręgach o odpowiednich rozmiarach. W 

ten sposób cząstki mogą na przykład krążyć wewnątrz pojemnika w kształcie torusa 

(czyli obwarzanka), nie wchodząc nigdy w kontakt z jego ściankami. Ta sama zasada 

jest wykorzystywana w urządzeniach, zwanych tokamakami. które służą do 

przechowywania plazmy o wysokiej temperaturze, wykorzystywanej w badaniach nad 

kontrolowaną syntezą jądrową.

W źródle antyprotonów w akceleratorze Fermilabu znajduje się duży pierścień 

magnesów. Wyprodukowane w średnioener-getycznych zderzeniach antyprotony 

kierowane są do tego pierścienia, gdzie można je przechowywać aż do czasu, kiedy 

będą potrzebne do zderzeń wysokoenergetycznych, które odbywają się w tewatronie - 

potężnym akceleratorze w Fermilabie. Tewatron jest o wiele większym pierścieniem: 

jego obwód wynosi około 6,4 kilometra. Do tego pierścienia wstrzykuje się protony, a 

następnie przyspiesza je w jednym kierunku; antyprotony rozpędza się w kierunku 

przeciwnym. Jeśli pola magnetyczne zostaną precyzyjnie dobrane, te dwie wiązki 

cząstek można trzymać z dala od siebie przez większą część trasy w tunelu. W 

określonych punktach wiązki jednak zbliżają się do siebie i można badać zderzenia 

cząstek.

Kolejnym problemem, który się pojawia, gdy chcemy używać napędu na 

materię i antymaterię, jest kwestia, skąd wziąć antymaterię. O ile nam wiadomo, 

Wszechświat składa się głównie z materii, a nie z antymaterii. Potwierdzają to 

background image

badania zawartości wysokoenergetycznego promieniowania kosmicznego, którego 

część pochodzi spoza naszej Galaktyki. W czasie zderzeń wysokoenergetycznego 

promieniowania kosmicznego z materią powinny powstawać niektóre antycząstki. 

Gdy bada się promieniowanie kosmiczne o różnej energii, obecność w nim 

antymaterii można w zupełności wyjaśnić za pomocą tego właśnie zjawiska; nic nie 

wskazuje na to, aby docierała do nas jakaś pierwotna antymateria. Kolejnym 

możliwym śladem obecności antymaterii we Wszechświecie mogłyby być 

charakterystyczne cechy procesu anihilacji, zachodzącej w wyniku zderzeń cząstek i 

antycząstek. Gdziekolwiek pary takie się pojawią, można oczekiwać 

charakterystycznego promieniowania, wysyłanego w wyniku anihilacji. W ten 

właśnie sposób Enterprise poszukiwał Krystalicznej Istoty, która zniszczyła nową 

placówkę Federacji; najwidoczniej pozostawiała ona ślad w postaci smugi 

antyprotonów. Tropiąc ślady promieniowania anihilacyjnego, Enterprise wyśledził 

Istotę ł przejął nad nią kontrolę, zanim zdążyła zaatakować następną planetę.

Chociaż autorzy Star Trek dobrze uchwycili ogólną ideę, mylili się co do 

szczegółów. Dr Marr i Data poszukiwali ostrego maksimum promieniowania y w 

okolicy 10 keV, czyli 10 kilo-elektronowoltów, które są jednostkami energii 

promieniowania. Niestety, nie jest to właściwa skala energii dla procesu anihilacji 

protonów i antyprotonów, a nawet nie odpowiada ona żadnemu znanemu procesowi 

anihilacji. Najlżejszą znaną cząstką mającą masę jest elektron. W czasie anihilacji 

elektronów i pozytonów powstaje ostre maksimum promieniowania y w okolicy 511 

keV, co odpowiada masie elektronu. Maksimum energii anihilacji protonów i 

antyprotonów odpowiada z kolei spoczynkowej energii protonu, czyli l GeV 

(gigaelektronowoltowi); to energia około sto tysięcy razy większa od tej, której 

poszukiwali Marr i Data. (Nawiasem mówiąc, 10 keV znajduje się w rentgenowskim 

obszarze widma, a nie w zakresie promieniowania y, które odpowiada energii 

przekraczającej 100 keV; jest to jednak chyba zbyt subtelny szczegół, aby kruszyć o 

niego kopie).

W każdym razie astronomowie i fizycy poszukiwali rozproszonych sygnałów 

tła w okolicy 511 keV i w zakresie GeV, mając nadzieję, że trafią na ślady anihilacji 

materii i antymaterii; jak dotąd jednak niczego takiego nie znaleziono. Oznacza to, 

jeśli uwzględni się również wyniki badań promieniowania kosmicznego, że gdyby 

nawet we Wszechświecie istniały znaczne ilości antymaterii, nie mogą być one 

wymieszane ze zwykłą materią.

background image

Ponieważ większości z nas o wiele bliższa jest materia niż antymateria, 

wydaje się całkiem naturalne, że Wszechświat powinien być zbudowany z tej 

pierwszej. Nie ma w tym jednak nic naturalnego. W rzeczywistości nadmiar materii w 

stosunku do antymaterii to obecnie jeden z najbardziej interesujących nie 

rozwiązanych problemów w fizyce. Ta przewaga ma wiele wspólnego z naszym 

istnieniem, a zatem także z istnieniem wszechświata Star Trek. Wydaje się więc 

właściwe zatrzymać się dłużej nad tą kwestią.

Kiedy powstała mechanika kwantowa, zastosowano ją z powodzeniem do 

opisu zjawisk fizyki atomowej; udało się na przykład wspaniale wytłumaczyć 

zachowanie elektronów w atomach. Nie ulegało jednak wątpliwości, że jednym z 

ograniczeń tego obszaru badań było to, że prędkości takich elektronów są zwykle 

dużo mniejsze od prędkości światła. Szczególnej teorii względności z mechaniką 

kwantową nie udało się pogodzić przez prawie dwa dziesięciolecia, m.in. dlatego, że - 

w przeciwieństwie do szczególnej teorii względności, która jest stosunkowo prosta w 

zastosowaniach - mechanika kwantowa wymagała nie tylko całkiem nowego sposobu 

widzenia świata, lecz także skonstruowania nowych narzędzi matematycznych. W 

ciągu pierwszych trzydziestu lat naszego wieku najwybitniejsi młodzi fizycy 

poświęcili się całkowicie badaniu tego niezwykłego, nowego obrazu Wszechświata.

Jednym z nich był Paul Adrien Maurice Dirac. Podobnie jak jego następca 

Stephen Hawking, a później Data, miał on pewnego dnia objąć profesurę Lucasa w 

katedrze matematyki na Uniwersytecie w Cambridge. Był uczniem lorda Rutherforda, 

a następnie pracował z Nielsem Bohrem - trudno o lepsze przygotowanie dla kogoś, 

kto chciał rozszerzyć mechanikę kwantową na obszar superszybkich prędkości. W 

roku 1928 Dirac, podobnie jak kiedyś Einstein, ułożył równanie, które miało zmienić 

świat. Równanie Diraca poprawnie opisuje relatywistyczne zachowanie elektronów w 

sposób w pełni zgodny z teorią kwantowomechaniczną.

Wkrótce po sformułowaniu tego równania Dirac uświadomił sobie, że 

zachowanie spójności matematycznej wymaga istnienia w przyrodzie cząstki o 

ładunku, którego wartość odpowiadałaby dokładnie ładunkowi elektronu, ale z 

przeciwnym znakiem. Oczywiście znano już taką cząstkę: był nią proton. Jednak z 

równania Diraca wynikało, że cząstka ta powinna mieć taką samą masę jak elektron, 

podczas gdy proton jest prawie 2 tysiące razy cięższy. Ta rozbieżność między 

rezultatami obserwacji a „naiwną” interpretacją równania pozostawała zagadką przez 

cztery lata, aż do chwili, gdy amerykański fizyk Carl Anderson odkrył w 

background image

promieniowaniu kosmicznym bombardującym Ziemię nową cząstkę, której masa 

równała się masie elektronu, ale ładunek miał przeciwny znak - był dodatni. Ten 

„antyelektron” stał się wkrótce znany jako pozyton.

W ten sposób zdano sobie sprawę z tego, że z połączenia szczególnej teorii 

względności i mechaniki kwantowej wynika, iż wszystkie cząstki istniejące w 

przyrodzie mają swoje anty-cząstki, których ładunek elektryczny (jeśli są nim 

obdarzone) i różne inne własności powinny mieć przeciwne wartości. Jeśli wszystkim 

cząstkom odpowiadają antycząstki, to jest sprawą umowną, które z nich nazwiemy 

cząstkami, a które antycząstkami, o ile żaden proces fizyczny nie wykaże 

jakiejkolwiek przewagi cząstek nad antycząstkami. W klasycznym świecie 

elektromagnetyzmu i grawitacji takich procesów jednak nie ma.

Znaleźliśmy się teraz w kłopotliwym położeniu. Jeśli cząstki i antycząstki są 

równoprawne, dlaczego warunki początkowe we Wszechświecie zdecydowały, że to, 

co nazywamy cząstkami, ma stanowić dominującą formę materii? Z pewnością 

bardziej rozsądnym - lub przynajmniej bardziej symetrycznym -stanem początkowym 

byłaby sytuacja, w której liczba cząstek i antycząstek jest taka sama. Tymczasem 

musimy wyjaśnić, w jaki sposób prawa fizyki, które, jak widać, nie rozróżniają 

cząstek i antycząstek, znalazły sposób, aby wytworzyć więcej jednych niż drugich. A 

zatem albo istnieje we Wszechświecie podstawowa wielkość - stosunek ilości cząstek 

do antycząstek - która została ustalona na początku czasu i o której prawa fizyki nie 

mają nic do powiedzenia, albo musimy znaleźć wytłumaczenie dla późniejszej 

dynamicznej kreacji większej ilości materii niż antymaterii.

W latach sześćdziesiątych słynny radziecki naukowiec i późniejszy dysydent 

Andriej Sacharow zaproponował rozwiązanie tego problemu. Dowodził, że jeśli 

prawa fizyki w młodym Wszechświecie spełniałyby trzy warunki, asymetria między 

materią i antymaterią mogłaby się pojawić, nawet gdyby na początku tej asymetrii nie 

było. W czasach, gdy ta propozycja została wysunięta, nie istniały teorie fizyczne, 

które spełniałyby warunki postawione przez Sacharowa. W następnych latach jednak 

w fizyce cząstek i w kosmologii dokonał się wielki postęp. Obecnie istnieje wiele 

teorii, które potrafią w zasadzie wyjaśnić obserwowaną różnicę w ilości materii i 

antymaterii w przyrodzie. Niestety, wszystkie te teorie wymagają nowej flzy7-Fizyka 

podróży...

ki oraz nowych cząstek elementarnych i dopóki natura nie wskaże nam 

właściwego kierunku, nie będziemy wiedzieli, którą z nich wybrać. Jednakże wielu 

background image

fizyków, ze mną włącznie, znajduje wielką pociechę w tym, że kiedyś, wychodząc z 

pierwszych zasad, poznamy odpowiedź na pytanie, dlaczego istnieje sama materia, 

będąca podstawą naszej egzystencji.

Nawet gdybyśmy dysponowali odpowiednią teorią, nie wiemy, jaką właściwie 

liczbę, określającą stosunek materii do antymaterii, miałaby ona wyjaśnić. Jaka 

musiałaby być w młodym Wszechświecie nadwyżka protonów w stosunku do 

antyprotonów, abyśmy mogli wyjaśnić obserwowaną obecnie przewagę materii? 

Wskazówką do znalezienia tej liczby jest porównanie ilości istniejących dzisiaj 

protonów z ilością fotonów - cząstek elementarnych, z których składa się światło. 

Gdyby w młodym Wszechświecie istniało tyle samo protonów i antyprotonów, 

anihilowałyby one, wytwarzając promieniowanie, czyli fotony. Każda anihilacja 

protonu ł antyprotonu powodowałaby powstanie średnio jednej pary fotonów. Jeśli 

jednak przyjmiemy, że istniała pewna niewielka przewaga protonów nad 

antyprotonami, nie wszystkie protony uległyby anihilacji. Obliczając liczbę protonów 

pozostałych po anihilacjach i porównując ją z liczbą fotonów wyprodukowanych w 

czasie anihilacji (to znaczy liczbą fotonów w promieniowaniu tła pozostałym po 

Wielkim Wybuchu), moglibyśmy oszacować ułamek, o jaki materia dominowała nad 

antymaterią w młodym Wszechświecie.

Okazuje się, że dziś mniej więcej l proton przypada na każde 10 miliardów 

fotonów w kosmicznym promieniowaniu tła. Oznacza to, że początkowy nadmiar 

protonów w stosunku do antyprotonów wynosił tylko l na 10 miliardów! Innymi 

słowy, w młodym Wszechświecie na każde 10 miliardów antyprotonów przypadało 

10 miliardów i l protonów! A jednak nawet ten malutki nadmiar (któremu 

towarzyszyła podobna przewaga neutronów i elektronów nad ich antycząstkami) 

wystarczył, aby powstała cała obserwowana materia we Wszechświecie: gwiazdy, 

galaktyki, planety i wszystko, co znamy i kochamy.

Sądzimy, że właśnie w ten sposób powstał Wszechświat złożony z materii. 

Historia ta wprawdzie jest ciekawa sama w sobie, ale wynika z niej też pewien 

wniosek dla Star Trele jeśli chce się stosować napęd na materię i antymaterię, nie 

można zbierać antymaterii w przestrzeni kosmicznej, ponieważ nie ma jej tam wiele. 

Antymaterię trzeba wytwarzać. Aby odkryć, jak można to zrobić, powróćmy do 

bizonów wędrujących po równinie nad akceleratorem Fermilabu. Zastanawiając się 

nad teoretyczną i praktyczną stroną tego zagadnienia, postanowiłem skontaktować się 

z dyrektorem Fermilabu, Johnem Peoplesem, który prowadził badania mające na celu 

background image

zaprojektowanie i zbudowanie źródła antyprotonów, i zapytać go, czy mógłby mi 

pomóc określić, ile antyprotonów można obecnie wyprodukować ł zmagazynować za 

cenę jednego dolara. Peoples zgodził się mi pomóc, zlecając kilku osobom ze 

swojego personelu dostarczenie potrzebnych informacji.

W Fermilabie wytwarza się antyprotony w średnioenerge-tycznych 

zderzeniach protonów z tarczą wykonaną z litu. Od czasu do czasu zderzenia te 

produkują antyproton, który następnie jest kierowany do pierścienia 

przechowującego, znajdującego się pod pastwiskiem bizonów. Działając ze średnią 

mocą, Fermilab wytwarza w ten sposób około 50 miliardów antyprotonów na 

godzinę. Przyjmując, że źródło antyprotonów pracuje przez 75% czasu w ciągu roku, 

otrzymujemy 6 tysięcy godzin pracy w roku, a więc średnio 300 tysięcy miliardów 

antyprotonów na rok.

Koszt eksploatacji tych urządzeń akceleratora w Fermilabie, które biorą 

bezpośredni udział w produkcji antyprotonów, wynosi około 500 milionów dolarów 

(wg cen z 1995 roku). Amortyzacja tego sprzętu podczas użytkowania go w ciągu 25 

lat daje dalsze 20 milionów dolarów na rok. Koszt pracy personelu (inżynierów, 

naukowców i obsługi technicznej) oraz maszyn wynosi około 8 milionów dolarów 

rocznie. Dochodzi do tego jeszcze koszt olbrzymiej ilości energii elektrycznej, 

koniecznej do wytwarzania wiązek cząstek oraz przechowywania antyprotonów. 

Według obecnych cen w Illinois wynosi on około 5 milionów dolarów rocznie. Są 

jeszcze koszty administracyjne, sięgające 15 milionów dolarów na rok. Wydaje się 

więc 48 milionów dolarów rocznie na wytworzenie 300 tysięcy miliardów 

antyprotonów, które następnie używa się w Fermilabie do badania podstawowej 

struktury materii we Wszechświecie. Oznacza to, że za dolara otrzymujemy 6 

milionów antyprotonów!

Koszt ten prawdopodobnie mógłby być mniejszy. Fermilab produkuje 

wysokoenergetyczną wiązkę antyprotonów, lecz gdybyśmy chcieli otrzymać tylko 

antyprotony nie obdarzone tak wysokimi energiami, moglibyśmy obniżyć koszty 

około dwóch do czterech razy.'Przyjmijmy więc, że dzisiejsza technologia pozwala 

uzyskać w hurcie 10-20 milionów antyprotonów za jednego dolara.

Kolejne pytanie jest oczywiste: ile czadu za tego dolara? Jeśli całą masę 

kupionych za dolara antyprotonów zamienimy na energię, uwolnimy około 1/1000 

dżula, co wystarczyłoby na podgrzanie 1/4 grama wody o około 1/1000 stopnia 

Celsjusza. Nic nadzwyczajnego.

background image

Prawdopodobnie lepszym sposobem wyobrażenia sobie potencjalnej 

wydajności źródła antyprotonów w Fermilabie jako części napędu 

czasoprzestrzennego jest uwzględnienie energii, którą można by wytworzyć, 

zużywając na bieżąco każdy antyproton produkowany przez źródło. Źródło 

antyprotonów może wytwarzać 50 miliardów cząstek na godzinę. Gdyby te wszystkie 

antyprotony zostały zamienione na energię, otrzymalibyśmy moc około l /1000 wata!

Innymi słowy, aby zasilić jedną żarówkę, potrzebnych byłoby 100 tysięcy 

takich źródeł antyprotonów! Jako że całkowity roczny koszt działania źródła 

antyprotonów wynosi 48 milionów dolarów, oświetlenie pokoju przy użyciu 

antymaterii kosztowałoby obecnie więcej niż wynosi roczny budżet rządu Stanów 

Zjednoczonych.

Główny problem polega na tym, że przy dzisiejszych możliwościach 

wyprodukowanie jednego antyprotonu wymaga o wiele więcej energii, niż można by 

uzyskać, zamieniając jego masę z powrotem w energię. Energia, jaką traci się w 

procesie produkcji, jest prawdopodobnie co najmniej milion razy większa niż energia 

zawarta w masie antyprotonu. Należałoby zatem znaleźć bardziej efektywne sposoby 

produkcji antymaterii, zanim zacznie się myśleć o wykorzystaniu w napędzie statku 

kosmicznego silników na materię i antymaterię.

Nie ulega również wątpliwości, że gdyby Enterprise miał wytwarzać własną 

antymaterię, potrzebne byłyby nowe technologie - nie tylko po to, by zmniejszyć 

koszty, lecz także rozmiary potrzebnych do tego urządzeń. Przy posługiwaniu się 

technikami akceleratorowymi potrzebne byłyby urządzenia wytwarzające o wiele 

więcej energii na metr tunelu niż obecnie. Mógłbym dodać, że stanowi to na Ziemi 

końca XX wieku przedmiot intensywnych badań. Jeśli akceleratory cząstek, będące 

obecnie naszymi jedynymi narzędziami do bezpośredniego badania podstawowej 

struktury materii, nie mają się stać zbyt kosztowne nawet dla międzynarodowych 

konsorcjów, muszą powstać nowe technologie przyspieszania cząstek elementarnych. 

(Niedawno rząd Stanów Zjednoczonych zdecydował, że koszty budowy akceleratora 

nowej generacji są zbyt wysokie. Kraje europejskie budują natomiast akcelerator w 

Genewie, który ma zacząć działać na początku przyszłego stulecia). Dotychczasowe 

doświadczenia dotyczące efektywności produkcji energii na jeden metr akceleratora 

sugerują, że co 10-20 lat możliwy jest postęp dziesięciokrotny. Niewykluczone więc, 

że za kilka stuleci będzie można sobie wyobrazić produkujący antymaterię 

akcelerator o rozmiarach statku kosmicznego. Znając niechęć obecnych rządów do 

background image

finansowania tego rodzaju kosztownych badań podstawowych, trudno być optymistą, 

ale w ciągu dwóch stuleci może przecież zajść wiele zmian politycznych.

Nawet gdyby można było wytwarzać antymaterię na pokładzie statku 

kosmicznego, wciąż trzeba byłoby pamiętać o tym, że wyprodukowanie każdego 

antyprotonu wymagałoby dużo więcej energii, niż można by później odzyskać. 

Dlaczego mielibyśmy zużywać tę energię na produkcję antymaterii, zamiast 

wykorzystać ją bezpośrednio do napędzania statku?

Twórcy Stor 7Vefc, jak zawsze czujni, rozstrzygnęli i ten problem. Ich 

odpowiedź była prosta. Innych form energii można używać do napędu pulsacyjnego, 

czyli do osiągania prędkości podświetlnych, lecz do zasilania napędu 

czasoprzestrzennego nadają się tylko reakcje materii i antymaterii. A ponieważ napęd

czasoprzestrzenny może o wiele skuteczniej ochronić statek przed 

niebezpieczeństwem niż napęd pulsacyjny, dodatkowe zużycie energii na produkcję 

antymaterii może być opłacalne. Scenarzyści uniknęli również problemów 

związanych z produkcją antymaterii za pomocą akceleratora, stając się wynalazcami 

nowej metody jej wytwarzania. Zaproponowali hipotetyczne „urządzenia do 

odwracania ładunku kwantowego”, które miały po prostu zmieniać ładunek cząstek 

elementarnych, tak aby z protonów i neutronów można było w efekcie końcowym 

otrzymać antyprotony i antyneutrony. Według instrukcji technicznej serii Następne 

pokolenie, chociaż proces ten wymaga niezwykle dużych mocy, strata energii netto 

wynosi tylko 24% - o wiele mniej, niż w przypadku użycia akceleratora.

Mimo że brzmi to bardzo obiecująco, zmiana ładunku elektrycznego protonu, 

niestety, nie wystarczy. Weźmy na przykład pod uwagę, że zarówno neutrony, jak i 

antyneutrony nie mają ładunku. Liczby kwantowe antycząstek (wielkości opisujące 

ich własności) są zawsze przeciwne niż u ich odpowiedników tworzących materię. 

Ponieważ kwarki, z których składają się protony, mają wiele innych liczb 

kwantowych poza ładunkiem elektrycznym, dla dokończenia procesu zamiany materii 

w antymaterię należałoby posłużyć się jeszcze innymi „urządzeniami do odwracania”.

W każdym razie w instrukcji technicznej czytamy, że z wyjątkiem sytuacji 

awaryjnych, kiedy antymaterię można produkować na statkach, cała antymateria 

Gwiezdnej Floty wytwarzana jest w jej stacjach paliwowych. Antyprotony i 

antyneutrony są tam łączone w jądra ciężkiego antywodoru. Szczególnie zabawne jest 

to, że inżynierowie Floty dodają później do tych naładowanych elektrycznie jąder 

antyelektrony (pozytony), tworząc neutralne atomy ciężkiego antywodoru -

background image

prawdopodobnie dlatego, że neutralne antyatomy wydają się scenarzystom Stor Trek 

łatwiejsze do przechowania niż naładowane elektrycznie antyjądra. (W 

rzeczywistości nie udało się jak dotąd wyprodukować antyatomów w laboratorium - 

chociaż ostatnie doniesienia z Uniwersytetu Harvarda sugerują, że pierwsze atomy 

antywodoru uda się wytworzyć jeszcze w tym

dziesięcioleciu

1

). Niestety, stwarza to poważne problemy z przechowywaniem 

antywodoru, ponieważ pola magnetyczne, które są absolutnie nieodzowne do 

utrzymywania dużych ilości antymaterii, działają tylko na obiekty naładowane 

elektrycznie! Cóż, wracamy do punktu wyjścia...

Statek kosmiczny może zabrać około 3 tysięcy m

3

 paliwa z antymaterii, które 

przechowywane jest w różnych zbiornikach (w Enterprise-D na Pokładzie 42). Ma to 

wystarczać na trzyletnią wyprawę. Spróbujmy dla zabawy ocenić, ile energii można 

uzyskać z tej ilości antymaterii, gdyby zgromadzono ją w postaci jąder ciężkiego 

antywodoru. Zakładam, że jądra są transportowane w postaci rozrzedzonej plazmy, 

którą prawdopodobnie łatwiej byłoby przechować za pomocą pól magnetycznych, niż 

gdyby tworzyły ciecz lub ciało stałe. W tym przypadku 3 tysiące m

3

 odpowiadałyby 

około 5 milionom gramów paliwa. Gdyby w reakcjach anihilacji zużywano l gram na 

sekundę, wytwarzana w ten sposób energia byłaby równa energii zużywanej dziś 

przez ludzkość w ciągu jednego dnia. Jak wspomniałem wcześniej przy okazji opisu 

napędu czasoprzestrzennego, jest to minimalna ilość energii, jaką należy wytwarzać 

na statku kosmicznym. Paliwo można by zużywać w tym tempie przez 5 milionów 

sekund, czyli z grubsza 2 miesiące. Przyjmując, że statek wykorzystuje napęd na 

materię i antymaterię przez 5% całkowitego czasu trwania misji, otrzymamy żądane 

trzy lata, na które ma wystarczać ta ilość paliwa.

Z kwestią ilości antymaterii wymaganej do produkcji energii związany jest 

jeszcze inny problem (na który twórcy Stor Trek przymykają od czasu do czasu oko): 

anihilacja materii i antymaterii jest procesem podlegającym zasadzie „wszystko albo 

nic”. Nie można go w sposób ciągły regulować. Nawet jeśli zmieni się stosunek ilości 

materii do antymaterii, tempo wytwarzania energii nie ulegnie zmianie. Stosunek 

uzyskanej mocy do ilości zużytego paliwa może się zmniejszyć tylko przy stracie 

paliwa - to znaczy w sytuacji, gdy niektórym cząstkom materii nie uda się znaleźć 

antymaterii, z którą mogłyby zanihilować, lub gdy będą się one tylko zderzać, nie 

anihilując. W kilku odcinkach (Nogi czas. Dziecko Galaktyki, Skóra diabla) stosunek 

ilości materii do antymaterii ulega zmianie, a instrukcja techniczna Star Trek podaje 

background image

nawet, że może się on zmieniać w sposób ciągły w zakresie od 25: l do l: l, w 

zależności od prędkości czasoprzestrzennej, przy czym stosunek 1:1 odpowiada 

prędkości 8 warpów lub wyższej. Przy prędkościach wyższych niż 8 warpów 

zwiększana jest ilość materii i antymaterii, ale ich stosunek pozostaje taki sam. 

Właściwa procedura jednak zawsze polega na zmianie ilości materii i antymaterii 

przy ich stałym stosunku, co powinni wiedzieć nawet kadeci Gwiezdnej Floty. 

Wyjaśnił to Wesley Crusher, wspominając w odcinku Dorastanie, że stawiane w 

trakcie egzaminów do Gwiezdnej Floty pytanie na temat właściwego stosunku ilości 

materii i antymaterii było podchwytliwe i że tylko jedna jego wartość jest poprawna - 

mianowicie 1:1.

Autorzy Star Trek dodali jeszcze jeden istotny składnik napędu na materię i 

antymaterię. Mam na myśli słynne kryształy dwu-litu (co ciekawe, wprowadzone 

przez nich na długo przedtem, zanim inżynierowie w Fermilabie zdecydowali się na 

użycie tarczy z litu w swoim źródle antyprotonów). Nie można ich pominąć, 

ponieważ są centralną częścią napędu czasoprzestrzennego i jako takie zajmują 

znaczące miejsce w gospodarce Federacji i wielu przedsięwzięciach inwestycyjnych. 

(Na przykład gdyby nie dwulit, Enterprise nigdy nie zostałby wysłany do Układu 

Halkańskiego, aby uregulować prawa wydobywcze, i nigdy nie poznalibyśmy 

„lustrzanego wszechświata”, w którym Federacja jest imperium zła!)

Na czym polega rola tych niezwykłych produktów wyobraźni twórców Star 

Trek? Kryształy te (znane również pod dłuższą nazwą: 2<5>6 dwulit 2<:>1 

dialokrzemian 1:9:1 heptożelazek) mogą regulować tempo anihilacji materii i 

antymaterii, ponieważ uważane są za jedyną formę materii, która jest 

„przepuszczalna” dla antymaterii.

Można pozwolić sobie na zinterpretowanie tego następująco: kryształy 

zbudowane są z regularnie uporządkowanych atomów, przypuszczam więc, że atomy 

antywodoru zostają rozmieszczone w siatce kryształu dwulitu i dzięki temu pozostają 

w stałej odległości zarówno od atomów zwykłej materii, jak i od siebie nawzajem. W 

ten sposób dwulit może regulować gęstość antymaterii, a więc także tempo jej reakcji 

z materią.

Przyczyną, dla której zadaję sobie trud znalezienia hipotetycznego 

wyjaśnienia działania hipotetycznego materiału, jest moje przekonanie, że twórcy 

Star Trek wyprzedzali swój czas. Wiele lat po tym, kiedy w Star Trek wprowadzono 

sterowaną dwulitem anihilację materii i antymaterii, w podobny - przynajmniej co do 

background image

zasady - sposób próbowano wyjaśnić równie niezwykły proces: zimną fuzję. W czasie 

mniej więcej sześciomiesięcznej euforii związanej z tym zjawiskiem twierdzono, że 

łącząc chemicznie różne pierwiastki można w jakiś sposób skłonić jądra atomowe, by 

reagowały szybciej, i spowodować w temperaturze pokojowej zajście takich samych 

reakcji, do których wytworzenia Słońce potrzebuje olbrzymich gęstości i temperatur 

przekraczających milion stopni.

Zimna fuzja budzi podejrzliwość fizyków m.in. dlatego, że związane z nią 

reakcje chemiczne musiałyby zachodzić na odległościach porównywalnych z 

rozmiarami atomu, które są 10 tysięcy razy większe niż rozmiary jąder atomowych. 

Trudno uwierzyć, aby reakcje zachodzące w obszarze tak znacząco większym od 

jąder mogły mieć jakiś wpływ na tempo reakcji jądrowych. Dopóki jednak nie 

uświadomiono sobie, że innym grupom naukowców nie udało się powtórzyć 

rezultatów osiągniętych rzekomo przez odkrywców zimnej fuzji, wielu ludzi spędziło 

bardzo dużo czasu na próbach odgadnięcia, w jaki sposób taki cud jest możliwy.

Ponieważ, w przeciwieństwie do zwolenników zimnej fuzji, twórcy Star Trek 

nigdy nie udawali, że wymyślają coś więcej niż fantastykę naukową, sądzę, że nie 

powinniśmy być dla nich tacy surowi. W końcu kryształy dwulitu wspomagają tylko 

coś, co niewątpliwie jest najbardziej przekonującym i realistycznym aspektem 

kosmicznej technologii: silniki na materię

i antymaterię. Mógłbym też dodać, że kryształy - chociaż wolframu, a nie 

dwulitu - są rzeczywiście stosowane do spowalniania wiązek antyelektronów 

(pozytonów) w prowadzonych obecnie eksperymentach; w tym przypadku 

antyelektrony rozpraszają się w polu elektrycznym kryształu i tracą energię.

Nie ma we Wszechświecie innego sposobu, aby dostać więcej czadu za dolara, 

niż wziąć cząstkę i anihilować ją z jej anty-cząstką, wytwarzając czystą energię 

promienistą. Jest to jedyna możliwa do wyobrażenia technologia mogąca służyć do 

napędu rakiet i z pewnością znajdzie takie zastosowanie, jeśli zdecydujemy się 

rozwijać przemysł statków kosmicznych bez ograniczeń. Niewątpliwie będzie to 

trochę kosztowało, ale to już zmartwienie polityków XXIII wieku.

background image

ROZDZIAŁ 7

HOLODEKI I HOLOGRAMY

Jesteśmy nami, proszę pana. Oni również są nami.

W takim razie wszyscy jesteśmy nami.

DATA do Picarda i Rikera w odcinku Zawsze zostanie nam Paryż

Kiedy na lotnisku w Casablance Humphrey Bogart powiedział do Ingrid 

Bergman: „Zawsze zostanie nam Paryż”, miał oczywiście na myśli wspomnienie 

Paryża. Kiedy Picard powiedział coś podobnego do Jenice Manheim w odtworzonej 

w holodeku Cafe des Artistes, rozumiał to bardzo dosłownie. Dzięki holodekom 

można ponownie przeżyć swoje wspomnienia, odwiedzić ulubione miejsca i odnaleźć 

utracone miłości... Holodek jest jedną z najbardziej fascynujących technologii 

używanych na pokładzie Enterprise. Dla każdego, kto oswoił się z rodzącym się 

światem wirtualnej rzeczywistości - czy to dzięki grom wideo, czy bardziej 

wyrafinowanym współczesnym superszybkim komputerom - możliwości, jakie 

oferuje holodek, są szczególnie kuszące. Kto nie chciałby w jednej chwili wejść 

całkowicie w świat własnych fantazji?

Jest to tak nęcące, że nie wątpię, iż można by się od tego uzależnić o wiele 

bardziej, niż pokazuje to serial. Domyślamy się „uzależnienia od holodeku” (czyli 

„holoholizmu”) w odcinkach W pogoni za pustką i Dziecko galaktyki W pierwszym z 

nich lubiany przez wszystkich nerwowo chory oficer, porucznik Reginald Barclay, 

uzależnia się od swojej fantastycznej wizji starszych oficerów na pokładzie Enterprise 

i woli mieć z nimi do czynienia raczej w holodeku, niż gdziekolwiek indziej.

W drugim z wymienionych odcinków Geordi LaForge nawiązuje w holodeku 

znajomość z podobizną dr Leah Brahms, projektantki silników. Kiedy jednak spotyka 

prawdziwą dr Brahms, sprawy znacznie się komplikują.

Mając na uwadze umysłowy charakter rozrywek, jakim zwykle oddaje się 

załoga w holodeku, możemy się domyślać, że sterowane hormonami instynkty 

napędzające ludzkość XX wieku ulegną pewnej zmianie do XXIII stulecia (chociaż, 

jeśli tak się stanie, Will Riker nie jest typowym reprezentantem swych 

współczesnych). Znając dzisiejszy świat, oczekiwałbym raczej, że głównym zajęciem 

w holodeku będzie seks. (Holodek zapewniałby bezpieczny seks w zupełnie nowym 

znaczeniu). Nie żartuję. Holodek uosabia wszystko to, co jest tak kuszące w 

background image

fantazjach, zwłaszcza seksualnych: działanie bez konsekwencji, przyjemność bez 

bólu oraz sytuacje, które można powtarzać w najrozmaitszych wariantach.

W serialu tylko od czasu do czasu czyni się aluzje na temat ukrytych 

przyjemności holodeku. Na przykład Geordi po tym, jak wpakował się niegrzecznie 

do prywatnej fantazji Rega w holodeku, przyznaje: „Spędziłem w holodeku kilka 

godzin. Cóż, to, co robisz w holodeku, jest twoją osobistą sprawą, o ile nie 

przeszkadza ci to w pracy”. Nie wiem, co bardziej mogłoby się kojarzyć z 

upomnieniem, by nie oddawać się zbytnio cielesnym przyjemnościom.

Nie wątpię, że pierwsze próby odkrywania wirtualnej rzeczywistości 

prowadzą nas w kierunku czegoś bardzo podobnego do holodeku. Możliwe, że moje 

obawy wydadzą się w XXIII wieku osobliwe, podobnie jak ostrzegawcze głosy 

towarzyszące wynalezieniu telewizji pół wieku temu. W końcu, chociaż protesty te 

ciągle trwają z powodu nadmiaru seksu i przemocy w telewizji, nie byłoby bez niej 

serialu Stor Trek.

Niebezpieczeństwo, że staniemy się nacją przesiadujących w domu 

leniuchów, nie byłoby groźne w przypadku świata pełnego osobistych holodeków lub 

na przykład holodeków dostępnych na każdej ulicy - zaangażowanie się w fantazję w 

holodeku wymagałoby sporej aktywności. Ciągle jednak perspektywa wirtualnej 

rzeczywistości bardzo mnie niepokoi - dlatego właśnie, że choć wydaje się ona 

rzeczywista, jest o wiele mniej groźna od prawdziwego życia. Powab świata dającego 

zmysłową przyjemność bez konsekwencji mógłby być nieodparty.

Każda nowa technologia ma jednak złe i dobre strony. To od nas zależy 

sposób jej wykorzystywania. Z tonu tej książki wynika chyba jasno, że wierzę, iż 

technologia uczyniła nasze życie lepszym. Wyzwanie polegające na rozsądnym jej 

użyciu jest tylko jednym z wyzwań stojących przed każdym członkiem ewoluującego 

ludzkiego społeczeństwa.

Holodek różni się jednak w uderzający sposób od rozwijających się obecnie 

technologii wirtualnej rzeczywistości. Dzięki urządzeniom, które przymocowuje się 

do ciała i które mają wpływ na spostrzeżenia i wrażenia, wirtualna rzeczywistość ma 

za zadanie umieścić całą „akcję” w naszym wnętrzu. W holodeku znajduje 

zastosowanie sprytniejsza taktyka: to my jesteśmy przenoszeni na „scenę wydarzeń”. 

Dzieje się tak częściowo dzięki pomysłowemu użyciu holografii, a częściowo przez 

powielanie.

Zasady, na których opiera się holografia, zostały sformułowane w roku 1947, 

background image

zanim jeszcze powstały technologie umożliwiające ich zastosowanie. Dokonał tego 

brytyjski fizyk Dennis Gabor, który za swoją pracę otrzymał później Nagrodę Nobla. 

Obecnie większości ludzi nieobce są trójwymiarowe obrazy holograficzne, spotykane 

chociażby na kartach kredytowych czy okładkach książek. Słowo „hologram” 

pochodzi od greckich słów oznaczających „całość” i „pisać”. W przeciwieństwie do 

zwykłych fotografii, które zapisują tylko dwuwymiarowy obraz trójwymiarowej 

rzeczywistości, hologramy dają obraz całościowy. Za pomocą holografii odtwarza się 

trójwymiarowy obraz, który można obejść dookoła ł obejrzeć ze wszystkich stron, tak 

jakby to był prawdziwy przedmiot. Jedyny sposób, aby stwierdzić różnicę, to 

spróbować chwycić hologram. Dopiero wtedy można się przekonać, że nie ma tam 

nic, czego można by dotknąć.

W jaki sposób dwuwymiarowy kawałek filmu, na którym zapisuje się obraz 

holograficzny, może pomieścić pełną informację o trójwymiarowym obrazie? Aby 

odpowiedzieć na to pytanie, musimy się zastanowić nad tym, co to znaczy, że coś 

widzimy, i co tak naprawdę zapisane jest na kliszy.

Przedmioty widzimy albo dlatego, że wysyłają, albo dlatego, że odbijają 

światło, które następnie dociera do naszych oczu. Kiedy oświetli się obiekt 

trójwymiarowy, odbija on światło w wielu kierunkach właśnie z powodu swojej 

trójwymiarowości. Gdybyśmy potrafili w jakiś sposób odtworzyć dokładny wzór 

rozproszonego przez rzeczywisty obiekt światła, nasze oczy nie mogłyby odróżnić 

prawdziwego przedmiotu od samego rozproszonego światła. Obracając głowę, 

moglibyśmy na przykład zobaczyć cechy wcześniej niewidoczne, ponieważ zostałby 

odtworzony cały wzór światła odbitego od wszystkich części przedmiotu.

W jaki sposób można najpierw zapisać, a potem odtworzyć całą tę 

informację? Pewien pogląd na to zagadnienie możemy sobie wyrobić, zastanawiając 

się najpierw, co zapisuje się na zwyczajnej fotografii, za której pomocą 

przechowujemy, a następnie odtwarzamy obraz dwuwymiarowy. Kiedy robimy 

zdjęcie, wystawiamy światłoczuły materiał na działanie światła wpadającego przez 

obiektyw aparatu. Jeśli materiał ten potraktujemy następnie różnymi chemikaliami, 

zaciemni się on proporcjonalnie do natężenia światła, jakie nań padło. (Mówię tutaj o 

filmie czamo-białym, ale fotografia kolorowa jest równie prosta: wystarczy pokryć 

błonę trzema różnymi substancjami, z których każda reaguje na inny podstawowy 

kolor).

Cała informacja zawarta na filmie fotograficznym mieści się więc w natężeniu 

background image

światła docierającego do każdego punktu błony. Gdy wywołujemy film, punkty, które 

były wystawione na działanie silniejszego światła, staną się pod wpływem 

chemikaliów ciemniejsze, te zaś, na które padło mniej światła -jaśniejsze. Powstający 

w ten sposób na filmie obraz jest negatywem dwuwymiarowego rzutu początkowego 

pola światła. Rzutując przez ten negatyw światło na światłoczuły papier, otrzymamy 

ostatecznie zdjęcie. Kiedy patrzymy na nie, światło padające na jaśniejsze obszary 

zdjęcia będzie w dużej mierze odbijane, natomiast to, które trafia na obszary 

ciemniejsze, zostanie pochłonięte. Innymi słowy, patrzenie na światło odbite od 

fotografii

powoduje powstanie na naszych siatkówkach dwuwymiarowego rozkładu 

natężenia, który następnie interpretujemy.

Powstaje teraz pytanie: co jeszcze - poza natężeniem światła w każdym 

punkcie - można by zapisać? Aby na nie odpowiedzieć, znów wykorzystamy to, że 

światło jest falą. Oznacza to, że do jego scharakteryzowania nie wystarczy natężenie. 

Przyjrzyjmy się fali światła pokazanej poniżej:

W punkcie A fala, która w tym przypadku przedstawia natężenie pola 

elektrycznego, ma wartość maksymalną odpowiadającą polu elektrycznemu o 

natężeniu E

A

 skierowanemu do góry. W punkcie B pole ma takie samo natężenie, ale 

jest skierowane w dół. Ktoś, kto rejestruje tylko natężenie fali światła, stwierdzi, że 

pole ma takie samo natężenie w punkcie A, jak w punkcie B. A przecież punkt B 

znajduje się w innej części fali niż punkt A. To „położenie” nazywane jest fazą. 

Okazuje się, że aby określić całą informację związaną z falą w danym punkcie, 

wystarczy podać jej natężenie i fazę. Aby więc zapisać całą informację o falach 

światła odbitych od trójwymiarowego obiektu, należy znaleźć sposób na zapisywanie 

na filmie zarówno natężenia, jak i fazy rozproszonego światła.

Można to zrobić rozdzielając wiązkę światła na dwie części i kierując jedną z 

background image

nich wprost na film, drugą zaś tak, by - zanim oświetli film - odbiła się od 

fotografowanego obiektu. Dojdzie wówczas do jednego z dwóch przypadków. Jeśli 

dwie fale są „w fazie” - czyli mają grzbiety w jakimś punkcie A - amplituda 

powstającej fali osiągnie w punkcie A amplitudę dwa razy większą od każdej z fal 

składowych, Jak to pokazuje rysunek:

Z drugiej strony, jeśli dwie fale nie są zgodne w fazie w punkcie A, zniosą się 

i powstająca „fala” będzie miała w punkcie A zerową amplitudę:

Jeśli teraz w punkcie A umieścimy kliszę fotograficzną, która zapisuje tylko 

natężenie, zarejestrujemy na niej „wzór interferencyjny” tych dwóch fal - wiązki 

odniesienia i wiązki odbitej od przedmiotu. Wzór ten zawiera nie tylko informację o 

natężeniu światła odbitego od obiektu, ale również o fazach. Przy odrobinie sprytu 

można tę informację wydobyć i odtworzyć trójwymiarowy obraz obiektu, który odbił 

background image

światło.

Okazuje się, że sprytu naprawdę nie trzeba zbyt wiele. Wystarczy po prostu 

oświetlić kliszę światłem tej samej długości, jaką miało światło wykorzystane do 

stworzenia obrazu interferencyjnego, a obraz przedmiotu - gdy popatrzy się przez 

kliszę - pojawi się dokładnie tam, gdzie się znajdował względem filmu sam 

przedmiot. Jeśli przechyli się głowę, będzie można „wyjrzeć” za krawędzie 

odtworzonego przedmiotu. Nawet jeśli większa część kliszy zostanie przykryta, a 

następnie popatrzymy przez nią, trzymając ją blisko oczu, zobaczymy cały przedmiot! 

W tym sensie doświadczenie to przypomina oglądanie przez okno sceny dziejącej się 

na zewnątrz, z tą tylko różnicą, że to, co widać, nie znajduje się tam naprawdę. 

Docierające do oczu obserwatora światło jest odkształcane przez kliszę w taki sposób, 

że oczom wydaje się, iż światło to zostało odbite od przedmiotów, które „widzimy”. 

Tak właśnie działa hologram.

Zazwyczaj, aby starannie kontrolować zarówno wiązkę odniesienia, jak i 

światio odbite od przedmiotu, używa się światła laserowego, które jest spójne i 

dobrze skolimowane. Istnieją także tak zwane hologramy światła białego, które z 

równie dobrym skutkiem można oświetlać zwykłym światłem.

Można być bardziej pomysłowym i spowodować - używając różnych 

soczewek - aby oglądane przedmioty znajdowały się między oglądającym a kliszą. 

Wówczas pojawi się przed nami trójwymiarowy obraz przedmiotu, który można 

obejść i obejrzeć ze wszystkich stron. Źródło światła może się też znajdować przed 

kliszą zamiast za nią - jak w przypadku hologramów na kartach kredytowych.

W holodeku używa się przypuszczalnie pierwszego rodzaju hologramów: gdy 

na przykład odtwarza się obraz doktora na oddziale chorych w serii Yoyager. Co 

więcej, aby zrobić takie hologramy, nie potrzeba rzeczywistych przedmiotów. 

Komputery cyfrowe są obecnie wystarczająco zaawansowane, aby prześledzić drogę 

poszczególnych promieni światła, czyli obliczyć, jak powinno wyglądać światło 

odbite od dowolnego obiektu, który zechcemy narysować na ekranie i oświetlić go 

pod dowolnym kątem. W taki sam sposób komputer może określić wygląd obrazu 

interferencyjnego, który powstałby z połączenia światła biegnącego wprost na kliszę 

ze światłem odbitym od przedmiotu. Wyprodukowany za pomocą komputera obraz 

interferencyjny można następnie rzutować na przezroczysty ekran i, gdy oświetli się 

ten ekran od tyłu, powstanie trójwymiarowy obraz przedmiotu, który w 

rzeczywistości nigdy nie istniał. Jeśli komputer jest wystarczająco szybki, może 

background image

rzutować na ekran zmieniający się ciągle obraz interferencyjny, tworząc w ten sposób 

poruszający się trójwymiarowy obraz. Holograflczny aspekt ho-lodeku nie jest więc 

specjalnie naciągany.

Hologramy jednak to jeszcze nie holodek. Powiedzieliśmy już, że nie są one 

obiektami materialnymi. Można przez nie przechodzić lub strzelać, jak tego dowiodły 

wspaniale hologra-ficzne obrazy stworzone przez Spocka i Datę, aby oszukać Ro-

mulan w odcinku jednoczenie. Ów brak cielesności przeszkadzałby jednak w 

przypadku obiektów, z którymi chcemy wejść w kontakt - to znaczy dotknąć ich. 

Wówczas wymagane są bardziej ezoteryczne techniki i twórcy Stor Trek musieli się 

posłużyć w tym celu transporterem lub przynajmniej replłkatora-mi, które są 

prostszymi wersjami transportera. Można się domyślać, że transporter pozwala 

odtwarzać i przemieszczać -w ścisłej współpracy z programami komputerowymi 

kontrolującymi głos i ruchy - materię w holodeku tak, aby dokładnie przypominała 

odpowiednie istoty. W podobny sposób replika-tory odtwarzają przedmioty 

nieożywione: stoły, krzesła itd. Ta „holodekowa materia” zawdzięcza swoją formę 

informacji przechowywanej w buforze replikatora. Kiedy transporter zostanie 

wyłączony lub przedmiot usunięty z holodeku, materia ta może rozłożyć się równie 

łatwo jak wtedy, gdy bufor wzorca zostaje wyłączony w trakcie przesyłania. Istoty 

stworzone z holode-kowej materii mogą więc zostać uwięzione w holodeku, jak to 

odkryli, ku swemu przerażeniu, fikcyjni detektywi Cyrus Red-block i Felix Leach w 

odcinku Wielkie pożegnanie serii Następne pokolenie.

Wyobrażam więc sobie holodek w następujący sposób: hologramy 

stanowiłyby „ściany”, symulując trójwymiarowe otoczenie, które rozciąga się po 

horyzont, oparte zaś na technologii transportera replikatory stwarzałyby na tej scenie 

poruszające się cielesne obiekty. Ponieważ opanowaliśmy już technikę holografii, 

natomiast (jak to wyjaśniłem wcześniej) zbudowanie transporterów jest mało 

prawdopodobne, aby stworzyć działajacy holodek, należałoby znaleźć jakiś inny 

sposób nadawania materii kształtu i przemieszczania jej. Nie jest jednak tak źle, skoro 

mamy w ręku jedną z dwóch koniecznych technologii.

Czy jednak same hologramy nie wystarczyłyby, jak w przypadku 

holograflcznego lekarza w serii Yoyoger? Odpowiedź brzmi: absolutnie nie. 

Obawiam się, że obrazy te, składające się tylko z rozproszonego światła, pozbawione 

grama materii, nie na wiele by się zdały, gdybyśmy chcieli je podnieść, zbadać lub 

manipulować nimi. Niemniej dobrego traktowania ł pełnych współczucia rad, które 

background image

leżą u podstaw właściwej praktyki medycznej, można oczekiwać tak od hologramu, 

jak od rzeczywistej istoty.

background image

CZĘŚĆ III

NIEWIDZIALNY

WSZECHŚWIAT,

CZYLI O CZYM NIE ŚNIŁO SIĘ

FILOZOFOM

W części tej mówimy o rzeczach, które mogą istnieć,

choć nikt ich jeszcze nie widział: życiu pozaziemskim,

wyższych wymiarach oraz egzotycznej menażerii

innych możliwości i niemożliwości fizyki.

background image

ROZDZIAŁ 8

W POSZUKIWANIU SPOCKA

Trudno jest pracować w grupie, gdy jest się wszechmocnym.

Q, dołączając do załogi Enterprise w odcinku Deja Q

Nieustająca agresja, podboje terytorialne i ludobójstwo... kiedy to tylko 

możliwe... Kolonia połączona jest tak, jakby była w rzeczywistości jednym 

organizmem rządzonym przez genom, który ogranicza zachowanie tak samo, jak je 

umożliwia... Ten fizyczny superorganizm działa tak, aby przystosować 

demograficzną mieszankę w celu zoptymalizowania swojej gospodarki 

energetycznej... Surowe zasady nie pozwalają na zabawę, sztukę czy współczucie”.

Borgowie należą do najbardziej przerażających i intrygujących gatunków 

obcych stworzeń, jakie zostały kiedykolwiek sportretowane na telewizyjnym ekranie. 

Z mojego punktu widzenia są tak fascynujący dlatego, że podobne do nich organizmy 

mogłyby w zasadzie powstać drogą doboru naturalnego. Chociaż zacytowany 

powyżej fragment stanowi trafny opis Borgów, nie pochodzi on z żadnego z 

odcinków Star Trek. Ów tekst pojawia się w pracy Berta Holldoblera i Edwarda O. 

Wilsona Podróż do krainy mrówek i nie jest opisem Borgów, lecz dobrze nam 

znanych ziemskich owadów. Mrówki osiągnęły niezwykłe sukcesy ewolucyjne i 

nietrudno zgadnąć dlaczego. Czy można sobie wyobrazić, że obdarzone 

świadomością społeczeństwo rozwija się w podobny superorganizm społeczny? Czy 

intelektualne subtelności, takie jak empatia, byłyby w takim społeczeństwie 

potrzebne? A może raczej przeszkadzałyby?

Gene Roddenberry przyznał, że podróże międzygwiezdne statku Enterprise są 

przede wszystkim pretekstem do opowiadania coraz to nowych historii. Mimo 

wszystkich technicznych cudów nawet umysł tak ścisły, jak mój, potrafi dostrzec, że 

tym, co napędza Star Trek, jest dramat, te same wielkie tematy, które przepełniały 

opowieści od czasów greckiej epiki: miłość, nienawiść, zdrada, zazdrość, zaufanie, 

radość, strach, zdziwienie... Wszyscy przywiązujemy się do opowieści opisujących 

ludzkie uczucia, które rządzą naszym własnym życiem. Gdyby napędu 

czasoprzestrzennego używano jedynie do przyspieszania bezzałogowych sond, gdyby 

transportery zbudowano tylko po to, aby przenosić próbki gleby, gdyby skanery 

medyczne wykorzystywano tylko do badania życia roślinnego, serial zakończyłby się 

background image

już po pierwszej serii odcinków.

Rzeczywiście, „nieustająca misja” statku Enterprise nie służy badaniu praw 

fizyki, lecz „poszukiwaniu niezwykłych nowych światów, nowego życia i nowych 

cywilizacji”. Sądzę, że serial Stor Trek jest tak fascynujący dlatego, iż pozwala, by 

ludzki dramat przestał być domeną człowieka. Wyobrażamy sobie, w jaki sposób inne 

gatunki próbują radzić sobie z tymi samymi problemami i zadaniami, jakie stoją przed 

ludzkością. Poznajemy nowe, wymyślone kultury, nowe zagrożenia. Jest to równie 

niezwykłe, jak zwiedzanie po raz pierwszy obcego kraju, czy studiowanie historii i 

odkrywanie zarówno tego, co jest zupełnie inne, jak i tego, co jest dokładnie takie 

same w zachowaniu ludzi, którzy żyli przed setkami lat.

Aby się dobrze bawić, musimy oczywiście pozbyć się chociaż na chwilę 

sceptycyzmu. Co ciekawe, niemal wszystkie obce gatunki, które spotyka Enterprise, 

przypominają ludzi i mówią po angielsku! (Twórcy Star Trek znaleźli dla tej sytuacji 

usprawiedliwienie w serii Następne pokolenie. Archeolog Richard Galen odkrywa 

bowiem, że wiele z tych cywilizacji ma wspólny materiał genetyczny, który został 

„zasiany” w pierwotnych oceanach wielu różnych światów przez pewną bardzo starą 

cywilizację. Przypomina to nieco żartobliwą teorię panspermii, lansowaną ostatnio 

przez Francisa Cricka, laureata Nagrody Nobla). Niewątpliwie nie uszło to uwagi 

żadnego trekkera, a najbarwniej wyłożył mi to fizyk teoretyk i laureat Nagrody Nobla 

- Sheldon Glashow, który powiedział o obcych istotach: „Wszyscy oni wyglądają jak 

ludzie cierpiący na słoniowatość!” Jednak i on - podobnie jak większość trekkerów - 

aby móc podziwiać sposób ujęcia psychologii obcych cywilizacji przez scenarzystów, 

stara się nie zważać na ich posunięcia. Hollywoodzcy scenarzyści nie są naukowcami 

ani inżynierami, dlatego wydaje się naturalne, że większość ich energii twórczej 

pochłania wymyślanie obcych kultur niż obcej biologii.

A mieli oni rzeczywiście bardzo wiele pomysłów. Poza Borga-mi i 

wszechmocnym kawalarzem Q wszechświat Stor Trek zaludniło ponad dwieście 

różnych form życia; potem przestałem je już liczyć. Wygląda na to, że nasza 

Galaktyka pełna jest inteligentnych cywilizacji, bardziej i mniej zaawansowanych w 

rozwoju. Niektóre z nich - takie jak Federacja, Klingonowie, Romulanie i Kardasowie 

- zarządzają olbrzymimi imperiami, podczas gdy inne żyją w odosobnieniu na 

pojedynczych planetach lub w pustce przestrzeni kosmicznej.

Znalezienie inteligentnych istot pozaziemskich, jak podkreślają to ludzie 

prowadzący ich poszukiwania, byłoby największym odkryciem w historii ludzkości. 

background image

Trudno sobie wyobrazić odkrycie, które mogłoby bardziej zmienić nasze poglądy na 

człowieka i jego miejsce we Wszechświecie. Jednak po 30 latach poszukiwań ciągle 

jeszcze czekamy na znalezienie ostatecznego dowodu na istnienie jakiejkolwiek 

formy życia poza Ziemią. Może się to wydawać zaskakujące. Jeśli gdzieś w kosmosie 

istnieje życie, natrafienie nań wydaje się nieuniknione, podobnie jak nieuniknione 

było to, że cywilizacje, które pojawiły się niezależnie od siebie na kilku ziemskich 

kontynentach, w końcu spotkały się, co zresztą doprowadziło do wielu spustoszeń.

Kiedy zastanowimy się głębiej nad prawdopodobieństwem odkrycia 

inteligentnego życia gdzieś we Wszechświecie, łatwo się zniechęcić. Przypuśćmy na 

przykład, że pewna obca cywilizacja w naszej Galaktyce została w jakiś sposób 

poinformowana, na którą z około 400 miliardów gwiazd w Drodze Mlecznej należy 

skierować przyrządy, aby odnaleźć zamieszkaną planetę. Powiedzmy, że kazano im 

patrzeć w kierunku Słońca. Jakie jest prawdopodobieństwo, że odkryją wtedy naszą 

obecność? Życie istnieje na Ziemi przez większość z 4,5 miliarda lat, jakie upłynęły 

od czasu, gdy powstała. Jednak dopiero w ostatnim półwieczu zaczęliśmy wysyłać 

jakiekolwiek sygnały świadczące o naszym istnieniu. Co więcej, dopiero od 25 lat 

dysponujemy radioteleskopami o wystarczającej sile, aby mogły one służyć innym 

cywilizacjom jako radiolatarnie. Zatem w ciągu 4,5 miliarda lat, w czasie których 

obce cywilizacje mogły przyglądać się Ziemi z kosmosu, byłyby w stanie odkryć 

nasze istnienie tylko w trakcie ostatniego półwiecza. Jeśli przyjmiemy, że obca 

cywilizacja zdecydowała się przeprowadzić swoje obserwacje w przypadkowym 

momencie historii naszej planety, okaże się, że prawdopodobieństwo odkrycia 

naszego istnienia byłoby jak 1 do 100 milionów. Przypominam, że ocena ta ma sens 

tylko wtedy, gdy wiadomo dokładnie, gdzie należy patrzeć!

Napisano całe książki na temat prawdopodobieństwa istnienia życia w naszej 

Galaktyce, jak również o możliwościach jego wykrycia. Oceny liczby 

zaawansowanych cywilizacji wahają się od milionów (w najlepszym razie) do jednej 

(w najgorszym, gdy założymy, że nasza cywilizacja jest zaawansowana). Nie chcę tu 

szczegółowo rozważać wszystkich argumentów. Pragnę jednak opisać kilka bardziej 

interesujących problemów fizycznych związanych z początkami życia, na którego 

poszukiwanie wysłano Enterprise. Chciałbym się również zająć stosowanymi obecnie 

na Ziemi metodami poszukiwania obcych cywilizacji.

Twierdzenie, że życie pozaziemskie powinno istnieć gdzieś w naszej 

Galaktyce, wydaje mi się przekonujące. Jak powiedziałem, w Galaktyce jest około 

background image

400 miliardów gwiazd. Byłoby więc rzeczą niezwykłą, gdyby nasze Słońce okazało 

się jedyną gwiazdą, wokół której rozwinęło się inteligentne życie. Aby ocenić 

prawdopodobieństwo, że życie podobne do naszego pojawiło się gdzieś indziej, 

można rozumować w sposób, który na pierwszy rzut oka wydaje się dość 

skomplikowany. Na początek można postawić oczywiste pytania w rodzaju: „Jakie 

jest prawdopodobieństwo tego, że wokół większości gwiazd krążą planety?” lub 

„Jakie jest prawdopodobieństwo, że dana gwiazda będzie żyła wystarczająco długo, 

aby zapewnić odpowiednie warunki dla rozwoju życia w swoim układzie 

planetarnym?” Następnie należy się zająć sprawami związanymi z samymi planetami: 

„Czy planeta jest dostatecznie duża, aby mogła utrzymać atmosferę?”, „Jakie jest 

prawdopodobieństwo, że procesy wulkaniczne rozpoczęły się na niej wystarczająco 

wcześnie, aby wytworzyć na powierzchni odpowiednią ilość wody?”, albo „Jak 

prawdopodobne jest to, że ma ona księżyc, którego masa i bliskość powodują, że na 

planecie występują pływy, a zatem mogą się tworzyć baseny przypływowe - kolebki 

życia?” Zajmę się dalej tymi kwestiami, jednak problem określenia rzeczywistych 

prawdopodobieństw polega na tym, że, po pierwsze, wiele potrzebnych parametrów 

pozostaje nieokreślonych ł, po drugie, nie wiemy, jak parametry te są ze sobą 

związane. Trudno określić nawet prawdopodobieństwo codziennych zdarzeń. Kiedy 

natomiast chce się oszacować cały ciąg bardzo małych prawdopodobieństw, 

możliwości wykorzystania w praktyce takiej oceny są bardzo niewielkie.

Należy też pamiętać, że nawet jeśli obliczy się dobrze zdefiniowane 

prawdopodobieństwo, jego interpretacja może być bardzo niejasna. 

Prawdopodobieństwo jakiegoś ciągu zdarzeń - na przykład tego, że siedzę na krześle 

określonego rodzaju, pisząc na komputerze (jednym z milionów komputerów 

wytwarzanych każdego roku), w tym konkretnym miejscu (w jednym z wielu miast 

na świecie), o określonej porze dnia (spośród 86 tysięcy 400 sekund doby) - jest 

niezwykle małe. To samo można powiedzieć o każdym innym zbiorze okoliczności w 

moim życiu. Podobnie, w świecie nieożywionym prawdopodobieństwo, że, 

powiedzmy, radioaktywne jądro rozpadnie się w dokładnie określonym momencie, 

jest również niezwykle małe. Jednak nie obliczamy takich prawdopodobieństw. 

Pytamy raczej, jak prawdopodobne jest to, że jądro rozpadnie się w pewnym 

niezerowym przedziale czasu, lub o ile bardziej prawdopodobny jest rozpad w jakimś 

momencie w stosunku do rozpadu w innym momencie.

Próbując ocenić prawdopodobieństwo istnienia życia w naszej Galaktyce, 

background image

należy być bardzo ostrożnym, aby nie narzucić zbyt dużych ograniczeń na ciąg 

wydarzeń, który się rozważa.. Jeśli się tak zrobi, a znamy takie oceny, dojść można 

do wniosku, że prawdopodobieństwo powstania życia na Ziemi jest niezwykle małe, 

co czasami wysuwa się jako argument za koniecznością boskiej interwencji. Jednak 

równie znikomo małe jest prawdopodobieństwo, że światło na skrzyżowaniu, które 

widzę ze swojego okna, zmieni się na czerwone, gdy będę czekał tam w swoim 

samochodzie dokładnie o godzinie 11:57, 3 czerwca 1999 roku. A przecież nie 

oznacza to, że do tego nie dojdzie.

Warto uświadomić sobie, że życie jednak powstało w Galaktyce - 

przynajmniej raz. Trudno przecenić wagę tego faktu. Z doświadczenia wiemy, że 

przyroda rzadko kiedy wytwarza jakieś zjawisko tylko raz. Nasze istnienie stanowi 

precedens; dowodzi, że powstanie życia jest możliwe. Gdy wiemy już, że życie może 

pojawić się w naszej Galaktyce, prawdopodobieństwo tego, że narodzi się również 

gdzie indziej, gwałtownie wzrasta. (Nie musi jednak, jak sądzą niektórzy biologowie 

ewolucyjni, rozwinąć się w formę inteligentną).

Chociaż nasza wyobraźnia jest niewątpliwe zbyt uboga, aby rozważyć 

wszystkie kombinacje warunków, które mogłyby doprowadzić do powstania 

inteligentnego życia, możemy posłużyć się przykładem własnego istnienia i 

zastanowić się, jakie cechy Wszechświata były decydujące lub ważne w naszej 

ewolucji. Zacznijmy od Wszechświata jako całości. Wspomniałem już o jednym z 

kosmicznych zbiegów okoliczności, o tym, że w młodym Wszechświecie na każde 10 

miliardów protonów i antyprotonów przypadał jeden dodatkowy proton. Bez tych 

dodatkowych cząstek materia zanihilowałaby z antymaterią i w dzisiejszym 

Wszechświecie nie byłoby już materii, ani inteligentnej, ani żadnej innej.

Następną oczywistą cechą Wszechświata, w którym żyjemy, jest jego sędziwy 

wiek. Powstawanie inteligentnego życia na Ziemi trwało około 3,5 miliarda lat. 

Abyśmy więc mogli się pojawić we Wszechświecie, musiał on istnieć przez miliardy 

lat. Wedle najlepszych obecnie ocen wieku Wszechświata ma on 10-20 miliardów lat, 

co jest okresem wystarczająco długim. Okazuje się jednak, że nie tak łatwo a priori 

zaprojektować wszechświat, który - podobnie jak nasz - rozszerza się, a nie zapada 

bardzo szybko w Wielkim Kolapsie (odwrotności Wielkiego Wybuchu), i 

jednocześnie nie rozszerza się zbyt szybko, uniemożliwiając materii grupowanie się 

w gwiazdy i galaktyki. Warunki początkowe we Wszechświecie - lub pewien 

dynamiczny proces fizyczny we wczesnych etapach jego historii - musiały być bardzo 

background image

dobrze zestrojone, aby wszystko się powiodło.

Kwestia ta znana jest jako problem płaskości Wszechświata, a jej zrozumienie 

stało się jednym z głównych zadań dzisiejszej kosmologii. Przyciąganie grawitacyjne, 

związane z obecnością materii, spowalnia rozszerzanie się Wszechświata. W związku 

z tym pojawiają się dwie możliwości. Albo we Wszechświecie jest wystarczająco 

dużo materii, by zatrzymać i odwrócić ekspansję (Wszechświat zamknięty), albo jest 

jej zbyt mało i Wszechświat będzie się rozszerzał wiecznie (Wszechświat otwarty). 

Zaskakującą cechą obecnego Wszechświata jest to, że kiedy dodamy do siebie całą 

widoczną materię, otrzymana ilość jest podejrzanie bliska wielkości granicznej 

między tymi dwoma możliwościami. Taka wielkość graniczna odpowiada 

Wszechświatowi płaskiemu, w którym tempo ekspansji maleje, ale na to, aby 

ekspansja zupełnie ustała, potrzeba byłoby nieskończonego czasu.

Szczególnie zadziwia to, że Wszechświat, który nie jest doskonale płaski, w 

trakcie swej ewolucji coraz bardziej oddala się od tego granicznego stanu. Ponieważ 

Wszechświat ma dzisiaj co najmniej 10 miliardów lat i wyniki obserwacji wskazują, 

że jest obecnie niemal zupełnie płaski, we wcześniejszych okresach swojego istnienia 

musiał być jeszcze bardziej płaski. Trudno sobie wyobrazić, w jaki sposób miałoby to 

nastąpić przypadkiem, bez udziału jakiegoś wymuszającego to procesu fizycznego.

Około 15 lat temu zaproponowano opis takiego procesu - nosi on nazwę 

inflacji. W młodym Wszechświecie mógł on zachodzić powszechnie w wyniku 

efektów kwantowomechanicznych.

Przypomnijmy sobie, że pusta przestrzeń nie jest tak naprawdę pusta, lecz 

istnieją w niej kwantowe fluktuacje, które mogą przenosić energię. Okazuje się, że 

ponieważ natura sił działających między cząstkami elementarnymi zmieniała się wraz 

z temperaturą młodego Wszechświata, energia zmagazynowana we fluktuacjach 

kwantowych próżni mogła stać się dominującą formą energii. Owa energia próżni 

może odpychać grawitacyjnie, zamiast przyciągać. Istnieje hipoteza, że Wszechświat 

przeszedł kiedyś przez krótką fazę inflacji, w czasie której dominowała energia 

próżni, co zaowocowało bardzo szybką ekspansją. Można wykazać, że kiedy ten 

okres dobiegł końca i energia próżni zamieniła się w energię materii i 

promieniowania, Wszechświat mógł stać się niemal dokładnie płaski.

Pozostaje jednak inny, być może poważniejszy problem. Pojawił się on po raz 

pierwszy, gdy Einstein spróbował zastosować swoją ogólną teorię względności do 

opisu Wszechświata. W tym czasie nie wiedziano jeszcze, że Wszechświat się 

background image

rozszerza, wierzono raczej, że jest on statyczny i niezmienny. Einstein musiał więc 

znaleźć jakiś sposób, aby powstrzymać całą materię przed zapadnięciem się w 

wyniku przyciągania grawitacyjnego. Dodał więc do swoich równań człon, zwany 

stałą kosmologiczną, który wprowadzał kosmiczne odpychanie, aby zrównoważyć 

przyciąganie grawitacyjne materii w dużych skalach. Gdy się okazało, że 

Wszechświat nie jest statyczny, Einstein uświadomił sobie, iż nie ma potrzeby 

dodawać do równań stałej kosmologicznej, i nazwał to największą pomyłką, jaką 

kiedykolwiek popełnił. Niestety, tak jak w przypadku pasty do zębów, która - 

wyciśnięta - nie chce wejść z powrotem do tubki, gdy raz podniesiono kwestię 

istnienia stałej kosmologicznej, nie było już odwrotu. Jeśli taki człon może się 

znajdować w równaniach Einsteina, należy wyjaśnić, dlaczego nie ma po nim śladu w 

obserwowanym Wszechświecie. Okazuje się, że energia próżni daje dokładnie ten 

sam efekt, jaki chciał uzyskać Einstein, wprowadzając stałą kosmologiczną. Powstaje 

więc pytanie: jak to się stało, że energia próżni nie dominuje w dzisiejszym 

Wszechświecie? Innymi słowy, jak to się dzieje, że Wszechświat nie trwa wciąż w 

fazie inflacji?

Nie znamy odpowiedzi na te pytania. Są to prawdopodobnie jedne z 

najbardziej głębokich, dotąd nie zbadanych problemów w fizyce. Każde obliczenie 

wykonywane przy użyciu znanych teorii sugeruje, że energia próżni powinna być 

obecnie o wiele rzędów wielkości większa, niż to wynika z obserwacji. 

Zaproponowano pewne mechanizmy odwołujące się do tak niezwykłych tworów, jak 

tunele euklidesowe, które mogłyby powodować znikanie energii, ale żadnej z tych 

hipotez nie udało się dobrze uzasadnić. Co więcej, ostatnie obserwacje wykazują, że 

stała kosmologiczna, chociaż znacznie niniejsza niż moglibyśmy się spodziewać, 

może być jednak różna od zera i w związku z tym wywierać zauważalny wpływ na 

ewolucję Wszechświata, na przykład postarzając go. Zagadnienia te budzą wielkie 

zainteresowanie i zajmują dużo miejsca także w moich własnych badaniach.

Niezależnie od tego, jak ów problem zostanie rozwiązany, nie ulega 

wątpliwości, że płaskość Wszechświata była jednym z warunków koniecznych 

powstania życia na Ziemi i że warunki kosmologiczne, które się do tego przyczyniły, 

są takie same w całym Wszechświecie.

Do licznych kosmicznych zbiegów okoliczności, które pozwoliły na rozwój 

życia na Ziemi, doszło również na podstawowym, mikrofizycznym poziomie. Gdyby 

którakolwiek z fundamentalnych stałych fizycznych przyrody była tylko nieco inna, 

background image

nigdy nie powstałyby warunki konieczne do ewolucji ziemskich form życia. Gdyby 

na przykład bardzo małą różnicę masy między neutronem i protonem (około 1/1000) 

zmienić tylko dwukrotnie, rozpowszechnienie we Wszechświecie pierwiastków 

istotnych dla życia na Ziemi byłoby znacznie mniejsze. Podobnie, gdyby nieco 

zmienić poziom energetyczny jednego ze stanów wzbudzonych jądra atomu węgla, 

reakcje, w których wyniku ten pierwiastek powstaje we wnętrzach gwiazd, nie 

zachodziłyby i w dzisiejszym Wszechświecie nie byłoby węgla stanowiącego 

podstawowy składnik cząsteczek organicznych.

Oczywiście, trudno powiedzieć, jaką wagę należy przypisać tym zbiegom 

okoliczności. Ponieważ pojawiliśmy się we Wszechświecie, nie należy się dziwić, że 

stałe przyrody mają wartości, które pozwoliły na nasze zaistnienie. Można by sobie 

wyobrazić, że Wszechświat, który obserwujemy, jest częścią o wiele większego 

metawszechświata. W każdym z wszechświatów, wchodzących w skład tego 

metawszechświata, stałe przyrody mogłyby mieć inne wartości. We wszechświatach, 

w których stałe fizyczne nie pozwalają na pojawienie się życia, nie ma nikogo, kto 

mógłby cokolwiek zmierzyć. Parafrazując sformułowanie rosyjskiego kosmologa 

Andrieja Linde, który popiera tę postać zasady antropicznej, jesteśmy w sytuacji 

inteligentnej ryby: dziwi się ona, dlaczego wszechświat, w którym żyje (wnętrze 

akwarium), składa się z wody. Odpowiedź jest prosta: gdyby nie był z wody, nie 

byłoby tam ryby i nie mogłaby zadawać pytań.

Ponieważ większość z tych interesujących problemów nie może obecnie 

zostać rozwiązana na drodze empirycznej, najlepiej chyba pozostawić je filozofom, 

teologom i autorom literatury fantastycznonaukowej. Przyjmijmy więc, że 

Wszechświat zdołał rozwinąć się zarówno w skali mikroskopowej, jak i 

makroskopowej w sposób sprzyjający powstaniu życia. Zajmiemy się teraz naszym 

własnym domem - Drogą Mleczną.

Kiedy zastanawiamy się, które układy gwiezdne w naszej Galaktyce mogłyby 

zawierać inteligentne życie, problemy fizyczne są o wiele lepiej określone. Wiedząc, 

że w Drodze Mlecznej istnieją gwiazdy liczące sobie co najmniej 10 miliardów lat 

(podczas gdy życie na Ziemi nie jest starsze niż 3,5 miliarda lat), musimy zapytać, od 

jak dawna życie mogło się rozwijać w naszej Galaktyce, zanim pojawiło się na Ziemi.

Kiedy 10-20 miliardów lat temu nasza Galaktyka zaczęła tworzyć się w 

rozszerzającym się Wszechświecie, pierwsze pokolenie jej gwiazd składało się 

wyłącznie z wodoru i helu, jedynych pierwiastków, które powstały w dużych 

background image

ilościach zaraz po Wielkim Wybuchu. Synteza jądrowa wewnątrz tych gwiazd 

powodowała zamianę wodoru w hel, a gdy paliwo wodorowe się wyczerpywało, 

zaczynał się spalać hel, tworząc jeszcze cięższe pierwiastki. Reakcje syntezy zasilają 

gwiazdę aż do chwili, gdy jej jądro składa się głównie z żelaza. Żelaza nie można już 

spalać i paliwo jądrowe gwiazdy ulega wyczerpaniu. Tempo, w jakim gwiazda 

zużywa swoje paliwo jądrowe, zależy od jej masy. Słońce po 5 miliardach lat spalania 

wodoru nie jest jeszcze nawet w połowie pierwszej fazy gwiezdnej ewolucji. 

Gwiazdy dziesięciokrotnie masywniejsze od Słońca spalają swoje paliwo około 1000 

razy szybciej niż ono. Takie gwiazdy zużywają swoje paliwo wodorowe w ciągu 

mniej niż 100 milionów lat, podczas gdy Słońce potrzebuje na to 10 miliardów lat.

Co dzieje się z taką masywną gwiazdą, gdy wyczerpie już ona swoje paliwo 

jądrowe? W ciągu sekund po spaleniu resztek zewnętrzne części gwiazdy zostają 

odrzucone w eksplozji, nazywanej supernową, która jest jednym z najwspanialszych 

fajerwerków we Wszechświecie. Supernowe świecą przez krótki czas z jasnością 

miliarda gwiazd. Obecnie pojawiają się one w Galaktyce w tempie 2-3 na stulecie. 

Prawie tysiąc lat temu astronomowie chińscy dostrzegli na niebie nową gwiazdę, 

widoczną nawet w dzień, którą nazwali „gwiazdą-gościem”. Supernowa ta 

wytworzyła coś, co obecnie możemy obserwować za pomocą teleskopów jako 

Mgławicę Krab. Ciekawe, że nigdzie w Europie Zachodniej nie zauważono tego 

krótkotrwałego zjawiska. W owych czasach kościelny dogmat głosił, że niebiosa są 

wieczne i niezmienne, i o wiele łatwiej było niczego nie widzieć niż narażać się na 

spalenie na stosie. Niemal 500 lat później europejscy astronomowie wyzwolili się już 

na tyle z tego dogmatu, że duński astronom Tycho Brahe mógł prowadzić obserwacje 

kolejnej supernowej w Galaktyce.

Wiele ciężkich pierwiastków powstałych w czasie ewolucji gwiazdy oraz 

stworzonych podczas eksplozji ulega rozproszeniu w ośrodku międzygwiazdowym, a 

część tego „gwiezdnego pyłu” wchodzi później w skład gazu, który zapada się, aby 

gdzie indziej utworzyć nową gwiazdę. W ciągu miliardów lat powstają nowe 

pokolenia gwiazd - tak zwane gwiazdy populacji I, do których należy Słońce. Wiele z 

nich może otaczać wirujący dysk gazu i pyłu, z którego następnie powstają planety 

zawierające ciężkie pierwiastki, takie jak wapń, węgiel i żelazo. Z tego właśnie 

materiału jesteśmy zbudowani. Każdy atom w naszych ciałach powstał miliardy lat 

temu w ognistym piecu jakiejś dawno umarłej gwiazdy. Uważam to za jeden z 

najbardziej fascynujących l romantycznych faktów dotyczących Wszechświata: 

background image

wszyscy jesteśmy - dosłownie! - dziećmi gwiazd.

Niewiele byłoby jednak pożytku, gdyby planeta taka jak Ziemia uformowała 

się w pobliżu bardzo masywnej gwiazdy: takie gwiazdy ewoluują i umierają w ciągu 

mniej więcej 100 milionów lat. Tylko gwiazdy o masie naszego Słońca lub mniejszej 

będą przez dłużej niż 5 miliardów lat spokojnie spalać wodór. Trudno sobie 

wyobrazić, w jaki sposób mogłoby powstać życie na planecie obiegającej gwiazdę, 

która w trakcie ewolucji znacznie zmienia swoją jasność. I odwrotnie, gdyby układ 

planetarny znajdował się wokół gwiazdy dużo mniejszej i słabszej od naszego Słońca, 

planeta, by otrzymywać ilość ciepła, potrzebną do podtrzymania życia, musiałaby 

prawdopodobnie znajdować się tak blisko gwiazdy, że zostałaby zniszczona przez 

siły pływowe. Jeśli zatem chcemy poszukiwać życia, należy przyglądać się 

gwiazdom, które nie różnią się zbytnio od naszej. Tak się składa, że Słońce jest raczej 

typowym członkiem Galaktyki. Około 25% wszystkich gwiazd Drogi Mlecznej - 

czyli blisko 100 miliardów - spełnia ten warunek. Większość z nich jest nawet starsza 

od Słońca, mogły więc stać się ogniskami życia nawet 4-5 miliardów lat wcześniej 

niż Słońce.

Wróćmy jednak na Ziemię. Co czyni naszą piękną zielononiebieską planetę 

tak wyjątkową? Po pierwsze, znajduje się ona w wewnętrznej części Układu 

Słonecznego. To ważne, ponieważ planety zewnętrzne zawierają procentowo o wiele 

więcej wodoru i helu - ich skład jest znacznie bliższy słonecznemu. Większość 

ciężkich pierwiastków znajdujących się w dysku gazu i pyłu, który otaczał Słońce w 

trakcie jego narodzin, pozostała w wewnętrznej części układu. Można się więc 

spodziewać, że potencjalne ogniska życia wokół gwiazdy o masie Słońca będą się 

znajdowały w odległościach mniejszych niż, powiedzmy, promień orbity Marsa.

Jak zauważyli Złotowłosi, Ziemia jest w sam raz - nie za duża i nie za mała, 

nie za zimna i nie za gorąca. Ponieważ planety wewnętrzne prawdopodobnie nie 

miały atmosfer, gdy się rodziły, ich atmosfery musiały zostać wytworzone później z 

gazów wydzielanych przez wulkany. Woda na powierzchni Ziemi powstała w ten sam 

sposób. Mniejsza planeta mogłaby wypromieniować ciepło ze swojej powierzchni tak 

szybko, że procesy wulkaniczne nie zachodziłyby na odpowiednio dużą skalę. 

Przypuszczalnie tak właśnie było w przypadku Merkurego i Księżyca. Mars jest 

przypadkiem granicznym, natomiast Ziemi i Wenus udało się utworzyć atmosferę. 

Pomiary radioaktywnych izotopów gazów w ziemskich skałach sugerują, że 4,5 

miliarda lat temu, po początkowym okresie bombardowań, w czasie którego Ziemia 

background image

uformowała się poprzez wychwyt materii spadającej na protoplanetę w ciągu 100-150 

milionów lat, podczas następnych kilku milionów lat procesy wulkaniczne 

wytworzyły około 85% atmosfery

3

. Nie jest zaskakujące, że życie organiczne 

powstało właśnie na Ziemi, a nie na żadnej innej planecie Układu Słonecznego, i 

podobnych tendencji można oczekiwać także gdzie indziej w Galaktyce - na 

planetach klasy M, jak się je nazywa we wszechświecie Stor Trek. Następne pytanie 

brzmi: ile czasu mogło potrzebować życie, a potem życie inteligentne, aby powstać ł 

się rozwinąć? Odpowiedź na pierwszą część tego pytania brzmi: niezwykle krótkiego 

czasu. Znalezione na Ziemi skamieniałości niebieskozielonych glonów mają 3,5 

miliarda lat, a niektórzy badacze twierdzą, że życie kwitło na naszej planecie już 3,8 

miliarda lat temu. Życie na Ziemi pojawiło się najwcześniej, jak to tylko było 

możliwe -w ciągu pierwszych kilkuset milionów lat jej istnienia. To bardzo 

obiecujące.

Oczywiście od czasu, kiedy na Ziemi powstało życie, do chwili pojawienia się 

skomplikowanych struktur wielokomórkowych, a później życia inteligentnego, 

upłynęły prawie 3 miliardy lat. Wszystko wskazuje na to, że okresem tym rządziła 

raczej fizyka niż biologia. Po pierwsze, pierwotna atmosfera Ziemi nie zawierała 

tlenu. Znajdował się w niej dwutlenek węgla, azot oraz śladowe ilości metanu, 

amoniaku, dwutlenku siarki i kwasu solnego, ale nie tlen. Tlen jest istotny nie tylko 

dla zaawansowanych, organicznych form życia na Ziemi, ale pełni jeszcze inną ważną

funkcję. Tylko wtedy, gdy w atmosferze znajduje się wystarczająca ilość tlenu, może 

powstać ozon. Jego obecność, jak sobie to coraz lepiej uświadamiamy, ma 

fundamentalne znaczenie dla życia na Ziemi, ponieważ odbija on promieniowanie 

ultrafioletowe, które jest szkodliwe dla większości istot. Nic więc dziwnego, że 

eksplozja życia na Ziemi rozpoczęła się dopiero wtedy, gdy w atmosferze pojawiły 

się duże ilości tlenu. Ostatnie pomiary wykazują, że tlen pojawił się w atmosferze 

około dwóch miliardów lat temu i w ciągu następnych 600 milionów lat osiągnął 

poziom zbliżony do obecnego. Chociaż tlen wytwarzały już wcześniej w procesach 

fotosyntezy niebie-sko-zielone glony żyjące w pierwotnych oceanach, z początku nie 

mógł on na stałe wejść w skład atmosfery. Reaguje on bowiem z tak wieloma 

substancjami (na przykład z żelazem), że każda jego ilość wyprodukowana w 

procesach fotosyntezy łączyła się z innymi pierwiastkami, zanim dotarła do 

atmosfery. W końcu, gdy wystarczająca ilość materiału w oceanie się utleniła, wolny 

tlen mógł zacząć zbierać się w atmosferze. (Nigdy nie doszło do tego na Wenus, 

background image

ponieważ panowała tam zbyt wysoka temperatura, aby mogły powstać oceany; na 

planecie nigdy nie pojawiły się niebiesko-zielone glony).

Gdy zapanowały już odpowiednie warunki, na pojawienie się złożonych form 

życia trzeba było czekać jeszcze miliard lat. Nie oznacza, to wcale, że taka jest 

właśnie charakterystyczna skala czasowa. Zarówno na biologiczną skalę czasu, jak i 

wyniki końcowe miały wpływ przypadki: ślepe zaułki ewolucji, zmiany klimatu i 

kataklizmy, które spowodowały masowe wymierania.

Wyniki te wskazują jednak, że życie inteligentne może rozwinąć się w ciągu 

miliarda lat - w okresie dość krótkim w porównaniu z kosmiczną skalą czasu. O 

długości tego okresu decydują jedynie czynniki fizyczne, takie jak produkcja ciepła 

czy tempo zachodzenia reakcji chemicznych. Z ziemskiego doświadczenia wynika, że 

nawet jeśli ograniczymy nasze oczekiwania w stosunku do inteligentnego życia do 

form organicznych i tlenowców - co z pewnością jest bardzo ostrożnym założeniem, 

którego chcieli uniknąć twórcy Stor Trek (jednym z moich ulubieńców jest Horta, 

istota krzemowa) - dobrymi kandydatami są planety krążące wokół gwiazd o masie 

zbliżonej do Słońca i mających kilka miliardów lat.

Przyjmijmy, że powstanie organicznego życia jest procesem stabilnym i 

stosunkowo szybkim. Jakie mamy dowody na to, że gdzieś we Wszechświecie istnieją 

niezbędne do tego składniki: mianowicie cząsteczki organiczne i inne planety? I w 

tym przypadku wynikł ostatnich badań napawają optymizmem. Cząsteczki organiczne 

znaleziono na planetoidach, w kometach, meteorytach i przestrzeni międzygwiezdnej. 

Niektóre z nich są złożone, jak na przykład aminokwasy, podstawowe cegiełki życia. 

Mikrofalowe badania międzygwiezdnego gazu i pyłu pozwoliły wykryć dziesiątki 

związków organicznych, prawdopodobnie złożonych węglowodorów. Wygląda więc 

na to, że materia organiczna jest dość rozpowszechniona w Galaktyce.

A co z planetami? Chociaż na razie zaobserwowano bezpośrednio tylko jeden 

układ planetarny poza naszym, powszechne jest przekonanie, że wokół większości 

gwiazd krążą planety.

4

 Na pewno duża część obserwowanych gwiazd ma gwiezdnych 

towarzyszy, z którymi tworzy tak zwane układy podwójne. Co więcej, obserwuje się, 

że wiele młodych gwiazd jest otoczonych przez dyski pyłowo-gazowe, z których 

prawdopodobnie powstają planety. Różne modele numeryczne, których używa się do 

badania rozkładu mas planet i ich orbit w takich dyskach, sugerują (podkreślam słowo 

„sugerują”), że powstaje z nich zazwyczaj co najmniej jedna planeta podobna do 

Ziemi, krążąca po orbicie zbliżonej rozmiarami do orbity ziemskiej. Całkiem 

background image

niedawno został wreszcie odkryty pierwszy poza Układem Słonecznym system 

planetarny, znajdujący się 1400 lat świetlnych od Ziemi. Nieco zaskakujące jest to, że 

ów system istnieje w jednym z najmniej gościnnych miejsc, w jakich mogłyby 

pojawić się planety: trzy planety krążą wokół pulsara -zapadniętego jądra supernowej 

- w odległości mniejszej, niż wynosi odległość Wenus od Słońca. Planety te mogły 

powstać raczej po niż przed wybuchem gwiazdy, niemniej odkrycie to wskazuje, że 

powstawanie planet nie jest zjawiskiem rzadkim.

Nie traćmy jednak z oczu głównego wątku. To prawie cud, że zwykłe prawa 

fizyki i chemii, obowiązujące w rozszerzającym się Wszechświecie, mającym ponad 

10 miliardów lat, prowadzą do powstania świadomych umysłów, które mogą badać 

ów Wszechświat. Chociaż okoliczności, którym zawdzięczamy powstanie życia na 

naszej planecie, są specyficzne, nie wygląda na to, aby miały one być właściwe tylko 

Ziemi. Powyższe argumenty sugerują, że w Galaktyce może istnieć ponad miliard 

potencjalnych ognisk życia organicznego. A ponieważ nasza Galaktyka jest tylko 

jedną ze 100 miliardów galaktyk w obser-wowalnym Wszechświecie, trudno 

uwierzyć w naszą samotność. Co więcej, większość gwiazd populacji I powstała 

wcześniej niż Słońce - nawet o 5 miliardów lat. Znając skale czasu, o których 

mówiliśmy wcześniej, można przypuszczać, że życie inteligentne pojawiło się w 

wielu miejscach jeszcze miliardy lat przed narodzinami Słońca. Można nawet 

oczekiwać, że większość cywilizacji pozaziemskich w Galaktyce istniała przed nami. 

Zatem Galaktyka mogłaby być pełna cywilizacji, które są miliardy lat starsze od 

naszej. Z drugiej strony, znając historię ludzkości, możemy przypuszczać, że takie 

cywilizacje, podobnie jak my, stawały w obliczu niebezpieczeństwa wojny czy głodu 

i wiele z nich mogło nie przetrwać kilku tysięcy lat; w tym przypadku większość 

inteligentnego życia we Wszechświecie już dawno wymarłaby. Jak trafnie to ujął 

pewien badacz ponad dwadzieścia lat temu: „Kwestia, czy istnieje gdzieś w kosmosie 

inteligentne życie, zależy w gruncie rzeczy od tego, jak bardzo jest ono inteligentne”.

Jak więc je poznamy? Czy wyślemy najpierw statki kosmiczne, aby badać 

niezwykłe nowe światy i dotrzeć tam, gdzie nie stanęła jeszcze ludzka stopa? Czy 

raczej odkryją nas nasi galaktyczni sąsiedzi, nastawiwszy swoje odbiorniki na serial 

Stor Trek, gdyż takie sygnały przemieszczają się przez Galaktykę z prędkością 

światła? Nie sądzę, aby którykolwiek z tych scenariuszy został zrealizowany, i nie 

jestem w swym sądzie odosobniony.

Po pierwsze, przekonaliśmy się już, jak wielkim problemem mogą być 

background image

podróże międzygwiezdne. Wymagałyby one wydatków energetycznych, jakich 

obecnie nie umiemy sobie nawet wyobrazić - i to bez względu na to, czy 

posłużylibyśmy się napędem czasoprzestrzennym, czy jakimkolwiek innym. 

Przypomnijmy sobie, że aby przyspieszyć rakietę za pomocą napędu na materię i 

antymaterię do prędkości około 3/4 prędkości światła, tak aby mogła się ona udać w 

dziesięcioletnią podróż tam i z powrotem do najbliższej gwiazdy, potrzeba byłoby 

energii, która mogłaby zaspokoić całkowite dzisiejsze zapotrzebowanie Stanów 

Zjednoczonych na okres ponad 100 tysięcy lat! To jednak niewiele w porównaniu z 

energią, której potrzebowalibyśmy, aby naprawdę zakrzywiać czasoprzestrzeń. Co 

więcej, aby zwiększyć szansę znalezienia życia, należałoby przeszukać co najmniej 

kilka tysięcy gwiazd. Obawiam się, że nawet podróżując z prędkością światła nie 

moglibyśmy tego dokonać w ciągu następnego tysiąclecia.

Takie są złe wieści. Dobrą nowiną, jak przypuszczam, jest to, że z tego 

samego powodu prawdopodobnie nie musimy się za bardzo martwić tym, że 

zostaniemy porwani przez przybyszów z kosmosu. Oni pewnie też ocenili swe 

możliwości energetyczne i odkryli, że o wiele łatwiej będzie im poznawać nas z 

daleka.

Czy powinniśmy więc poświęcać energię, aby rozgłaszać, że istniejemy? Na 

pewno byłoby to o wiele tańsze. Wydając mniej niż dolara na energię elektryczną, 

potrafilibyśmy przesiać do najbliższego układu gwiezdnego dziesięciowyrazową 

wiadomość, którą można by odebrać za pomocą anteny radiowej odpowiednich 

rozmiarów. Jeśli jednak - tutaj znowu zapożyczę argument od laureata Nagrody 

Nobla, Edwarda Purcella - będziemy nadawać, zamiast nasłuchiwać, umknie naszej 

uwadze większość inteligentnych form życia. Cywilizacje, które znacznie nas 

wyprzedzają, potrafią na pewno o wiele lepiej od nas emitować silne sygnały. A 

ponieważ uczestniczymy w radiowym biznesie dopiero od 80 lat, wiele cywilizacji 

powinno dysponować znacznie bardziej zaawansowaną technologią niż my. Tak więc,

jak mówiła moja matka, powinniśmy słuchać, zanim coś powiemy. Mam jednak 

nadzieję, że nie wszystkie zaawansowane technicznie cywilizacje pozaziemskie 

myślą w ten sam sposób.

Czego jednak powinniśmy słuchać? Jeśli nie wiemy, który kanał wybrać, 

sytuacja wygląda beznadziejnie. Tutaj może nam pomóc Stor Trek. W odcinku 

Dziecko galaktyki (serii Następne pokolenie) Enterprise spotyka obcą formę życia, 

która zamieszkuje pustą przestrzeń, karmiąc się energią. Szczególnie smakuje jej 

background image

promieniowanie o częstości 1420 milionów cykli na sekundę, co odpowiada długości 

fali 21 centymetrów.

Jak powiedziałby Pitagoras: gdyby istniała muzyka sfer niebieskich, z 

pewnością to byłby jej dźwięk podstawowy. Tysiąc czterysta dwadzieścia 

megaherców jest naturalną częstością precesji spinu elektronu, gdy okrąża on jądro 

wodoru - najpowszechniejszego pierwiastka we Wszechświecie. Jest to częstość 

tysiąckrotnie bardziej wyróżniająca się spośród innych częstości w Galaktyce. Co 

więcej, znajduje się ona dokładnie w oknie częstości, które - podobnie jak światło 

widzialne - można odbierać na powierzchni planety i przesyłać przez warstwy 

atmosfery chroniącej życie organiczne. Poza tym w okolicach tej częstości szum tła 

jest bardzo słaby. Radioastronomowie posłużyli się tą częstością, aby znaleźć obszary 

występowania wodoru w Galaktyce - co jest oczywiście równoważne występowaniu 

materii - ł w ten sposób określić jej kształt. Każdy gatunek wystarczająco 

inteligentny, aby wiedzieć choć trochę o falach radiowych i o Wszechświecie, 

powinien znać tę częstość. To taka uniwersalna latarnia morska. Trzydzieści sześć lat 

temu astrofizycy Giuseppe Cocconi i Philip Morrison stwierdzili, że jest to 

najbardziej naturalna częstość, na jakiej należałoby nadawać lub odbierać sygnały, i 

od tego czasu nikt się z nimi nie spierał.

W Hollywood nie tylko odgadnięto właściwą częstość nasłuchu, ale zdobyto 

również część pieniędzy na jego prowadzenie. Chociaż nasłuch kosmosu na niewielką 

skalę trwa od trzydziestu lat, pierwszy zakrojony na większą skalę wszechstronny 

program badawczy zaczął funkcjonować jesienią 1985 roku. Wówczas to Steven 

Spielberg wysupłał trochę grosza, co pozwoliło na formalne zainicjowanie projektu 

META, czyli Mega-channel Extra Terrestrial Assay (Milionkanałowe urządzenie do 

poszukiwania cywilizacji pozaziemskich). Ojcem tego urządzenia jest spec od 

elektroniki Paul Horowitz z Uniwersytetu Harvarda. META tkwi w 26-metrowym 

harwardzkim radioteleskopie w stanie Massachusetts i funkcjonuje za pieniądze 

prywatnego Planetary Society (Towarzystwa Planetarnego) łącznie z wkładem 100 

tysięcy dolarów od samego ET. META wykorzystuje układ 128 równoległych 

procesorów, które jednocześnie odczytują 8 388 608 kanałów częstości w pobliżu 

1420 megaherców i jej tak zwanej drugiej harmonicznej - równej 2840 megaherców. 

Jak dotąd zebrano dane z ponad pięciu lat i w tym czasie META trzykrotnie 

przemiotło całe niebo.

Oczywiście w trakcie nasłuchu należy się wykazać pewnym sprytem. Trzeba 

background image

sobie przede wszystkim uświadomić, że nawet jeśli wysyłany sygnał ma częstość 

1420 megaherców, może nie być z taką samą częstością odbierany. Dzieje się tak z 

powodu niecnego efektu Dopplera - przejawiającego się na przykład w ten sposób, że 

dźwięk gwizdka pociągu brzmi wyżej, gdy się on zbliża, a niżej, gdy się od nas 

oddala. Zasada ta obowiązuje dla każdego rodzaju promieniowania emitowanego 

przez poruszające się źródło. Ponieważ większość gwiazd w Galaktyce porusza się 

względem nas z prędkościami kilkuset kilometrów na sekundę, przesunięcia Dopplera 

nie można zaniedbać. {Twórcy Star Trek nie zaniedbywali go; dodawali do 

transportera „kompensatory efektu Dopplera”, aby zrównoważyć względny ruch 

statku kosmicznego i celu transportera). Przyjmując, że nadawcy jakiegokolwiek 

sygnału byliby tego świadomi, grupa META poszukiwała sygnału 1420 megaherców 

przesuniętego tak, jak gdyby pochodził z jednego z trzech układów odniesienia: (a) 

układu poruszającego się wraz z naszym lokalnym systemem gwiazd; (b) układu 

poruszającego się wraz z centrum Galaktyki; (c) układu zdefiniowanego przez 

kosmiczne mikrofalowe promieniowanie tła, pozostałe po Wielkim Wybuchu. 

Zauważmy, że ułatwia to znacznie odróżnienie tych sygnałów od sygnałów 

pochodzenia ziemskiego, które są emitowane w układzie związanym z powierzchnią 

Ziemi, różniącym się od każdego z trzech wymienionych. Ziemskie sygnały można 

więc bardzo łatwo wyłowić spośród danych zebranych przez META.

Jak wyglądałby sygnał pozaziemski? Cocconi i Morrison zaproponowali, aby 

poszukiwać kilku początkowych liczb pierwszych: l, 3, 5, 7, 11, 13... Dokładnie taki 

sam ciąg wystukuje Picard w odcinku Hołd, kiedy będąc w niewoli próbuje pokazać 

strażnikom, że mają do czynienia z przedstawicielem inteligentnego gatunku. Sygnały 

wyemitowane na przykład podczas burzy na powierzchni gwiazdy raczej nie utworzą 

takiego ciągu. Grupa META poszukiwała nawet jeszcze prostszego sygnału - 

jednostajnego, stałego tonu o określonej częstości. Taką falę „nośną” stosunkowo 

łatwo odnaleźć.

Horowitz i jego współpracownik, astronom z Uniwersytetu Cornella, Carl 

Sagan, opublikowali pracę zawierającą analizę danych zgromadzonych w ciągu 5 lat 

realizowania programu META. Ze 100 tysięcy miliardów odebranych sygnałów 

wyodrębniono 37 kandydatów. Niestety, żaden z tych „sygnałów” nigdy się nie 

powtórzył. Horowitz i Sagan interpretują dotychczasowe dane, stwierdzając, że jak 

dotąd nie zawierają one żadnego prawdziwego sygnału. W wyniku tego mogli oni 

ograniczyć domniemaną liczbę wysoko zaawansowanych cywilizacji - w zależności 

background image

od odległości od Słońca - które próbowały się z nami skontaktować.

Trzeba jednak pamiętać, że pomimo niewiarygodnego rozmachu 

przeprowadzonych badań, przeanalizowano dotychczas jedynie mały zakres 

częstości, a wymagania co do mocy sygnału, który mógłby zostać zarejestrowany 

przez teleskop META, są raczej duże: do jego nadania potrzebne są moce 

przekraczające całkowitą moc otrzymywaną przez Ziemię od Słońca (około 10

17

 

watów). Nie ma jednak na razie powodów do pesymizmu. Sam nasłuch to trudne 

przedsięwzięcie. Grupa META buduje obecnie większy i lepszy detektor (BETA), 

który ma tysiąckrotnie zwiększyć zakres poszukiwań.

Poszukiwania trwają. Choć jak dotąd niczego nie usłyszeliśmy, nie powinno 

nas to zniechęcać. Przypomina to opowieść, którą usłyszałem kiedyś od mego 

przyjaciela Sydneya Colemana, profesora fizyki na Uniwersytecie Harvarda: Gdy 

chcesz kupić dom, nie powinieneś się zniechęcać, jeśli obejrzysz setkę i nic nie 

znajdziesz. Musisz znaleźć ten jeden... Jeden zdecydowany sygnał - jakkolwiek mało 

prawdopodobne jest to, że go kiedykolwiek usłyszymy - zmieniłby nasz sposób 

widzenia Wszechświata i oznaczałby początek nowej ery w dziejach ludzkości.

Ci, którzy czują się rozczarowani stwierdzeniem, że nasz pierwszy kontakt z 

pozaziemską cywilizacją nie odbędzie się na pokładzie statku kosmicznego, powinni 

pamiętać o Cyterianach. Ta bardzo zaawansowana cywilizacja, którą napotkał na swej 

drodze Enterprise, kontaktowała się z innymi cywilizacjami w oryginalny sposób: 

zamiast wędrować w przestrzeni kosmicznej, zabierała podróżników do siebie. W 

pewnym sensie robimy to samo nasłuchując sygnałów z gwiazd.

background image

ROZDZIAŁ 9

WACHLARZ MOŻLIWOŚCI

Takie właćnie odkrycia na was czekają! Zamiast obserwowania gwiazd i studiowania 

mgławic, badanie nieznanych możliwości istnienia.

Q do Picarda w odcinku Wszystko, co dobre...

Ponad trzynaście lat obecności w telewizji kilku różnych seriali Star Trek 

pozwoliło scenarzystom poruszyć wiele najbardziej ekscytujących tematów ze 

wszystkich dziedzin fizyki. Czasami udaje im się uchwycić sedno sprawy, czasem się 

mylą. Niekiedy używają tylko terminów, którymi posługują się fizycy, a czasem 

włączają także idee z nimi związane. Tematy, które podejmował serial, stanowią 

przegląd współczesnej fizyki: szczególna i ogólna teoria względności, kosmologia, 

fizyka cząstek, podróże w czasie, zakrzywienie czasoprzestrzeni i fluktuacje 

kwantowe, by wymienić tylko kilka z nich.

Pomyślałem, że w przedostatnim rozdziale tej książki warto byłoby 

zaprezentować krótko kilka najbardziej interesujących problemów współczesnej 

fizyki, które wykorzystali scenarzyści Star Trek - zwłaszcza zagadnienia dokładnie 

dotąd nie omawiane. Ponieważ są tak różnorodne, podaję je w formie słownika, nie 

porządkując ich w jakiś szczególny sposób. W rozdziale ostatnim w podobnej formie 

zajmę się najbardziej rażącymi -z punktu widzenia fizyki - błędami, jakie popełniono 

w serialu, dostrzeżonymi zarówno przeze mnie, jak i przez niektórych kolegów 

fizyków i wielu trekkerów. W obydwu tych rozdziałach ograniczyłem się do 

wybrania dziesięciu najciekawszych przykładów, choć można by ich podać znacznie 

więcej.

ROZMIARY GALAKTYKI I WSZECHŚWIATA. Nasza Galaktyka jest 

sceną, na której rozgrywa się akcja serialu Star Trek. W każdym odcinku różnego 

rodzaju skale odległości galaktycznych odgrywają istotną rolę w przebiegu wydarzeń. 

Pojawiają się różne jednostki: od j.a., czyli jednostek astronomicznych (l j.a. 

odpowiada 149 milionom kilometrów, czyli odległości Ziemi od Słońca), których 

używano, aby opisać średnicę obłoku Vger w pierwszym filmie Star Trek, do lat 

świetlnych. Poza tym wspomina się o wielu cechach naszej Galaktyki, łącznie z 

„Wielką Barierą” w jej centrum (Star Trek V: Ostateczna granica] i -w pierwszej serii 

- „barierą galaktyczną” na jej krańcach (odcinki Gdzie nie stanęła ludzka stopa, 

background image

Jakiekolwiek inne imię i Czyż prawda nie może być piękna?. Aby opisać miejsce 

akcji Star Trek, należy przedstawić nasz obecny pogląd na strukturę Galaktyki i jej 

okolic oraz na skalę odległości we Wszechświecie.

Odległości astronomiczne rzadko wyraża się w zwykłych jednostkach, takich 

jak kilometry czy mile, gdyż wymagałoby to używania bardzo wielkich liczb. W 

zamian astronomowie stworzyli kilka umownych jednostek, które są bardziej 

użyteczne. Jedna z nich to jednostka astronomiczna (j.a.), czyli odległość między 

Ziemią a Słońcem. Jest to skala właściwa dla odległości w Układzie Słonecznym; 

Pluton, wyznaczający jego krańce, znajduje się w odległości 40 j.a. od Słońca. W 

wersji kinowej Star Trek obłok Vger ma średnicę 82 j.a., co jest wartością niezwykle 

dużą - większą niż rozmiary naszego Układu Słonecznego!

Dla porównania tego dystansu z odległościami międzygwiezdnymi warto 

wyrazić odległość Ziemia-Słońce jako czas potrzebny światłu (lub statkowi 

Enterprise, rozwijającemu prędkość l warpa) na jej przebycie. Równa się on mniej 

więcej ośmiu minutom. (Tyle czasu powinno wędrować światło od gwiazdy do 

krążącej wokół niej planety klasy M). Możemy więc powiedzieć, że jednostka 

astronomiczna równa się ośmiu minutom świetlnym. Dla porównania: odległość do 

najbliższej gwiazdy, a Centauri - układu podwójnego gwiazd, gdzie miał mieszkać 

wynalazca napędu czasoprzestrzennego, Zefrem Cochrane - wynosi około 4 lat 

świetlnych! Jest to typowa odległość między gwiazdami w naszej części Galaktyki. 

Przy osiągalnych obecnie prędkościach rakiety podróżowałyby do a Centauri ponad 

10 tysięcy lat. Przy prędkości 9 warpów, która 1500 razy przewyższa prędkość 

światła, przebycie jednego roku świetlnego zajęłoby około 6 godzin.

Odległość Słońca od centrum Galaktyki wynosi około 25 tysięcy lat 

świetlnych. Przy prędkości 9 warpów dystans ten pokonywałoby się w ciągu 15 lat, 

Jest więc mało prawdopodobne, aby Sybok, dowodząc Enterprise, mógł dolecieć nim 

do centrum Galaktyki (Stor Trek V: Ostateczna granica), chyba że statek znajdował 

się bardzo blisko tego miejsca.

Droga Mleczna jest galaktyką spiralną z dużym centralnym dyskiem gwiazd. 

Jej średnica sięga 100 tysięcy lat świetlnych, a grubość kilku tysięcy lat świetlnych. 

Voyager, rzucony w pierwszym odcinku tej serii 70 tysięcy lat świetlnych od Ziemi, 

znalazł się więc po drugiej stronie Galaktyki. Jego powrót w okolice Słońca zająłby 

przy prędkości 9 warpów około 50 lat.

W środku naszej Galaktyki tkwi jej jądro - gęste skupisko gwiazd, którego 

background image

średnica wynosi kilka tysięcy lat świetlnych. Przypuszcza się, że kryje się w nim 

czarna dziura o masie około miliona mas Słońca. Prawdopodobnie w centrum wielu 

innych galaktyk również znajdują się czarne dziury; ich masy mogą wynosić od 100 

tysięcy do ponad miliarda mas Słońca.

Galaktykę otacza niemal sferyczne halo bardzo starych gwiazd. Znajdujące się 

tam skupiska tysięcy gwiazd, zwane gromadami kulistymi, uważa się za bodaj 

najstarsze obiekty w naszej Galaktyce. Ich wiek ocenia się aż na 18 miliardów lat; są 

zatem starsze nawet od „czarnej gromady”, której w odcinku Chwalą bohaterom 

przypisano wiek 9 miliardów lat. Wysunięto również hipotezę, że Galaktykę otacza 

jeszcze większe sferyczne halo, składające się z „ciemnej materii” {o której jeszcze 

będzie mowa). Tego halo nie można zobaczyć za pomocą żadnego teleskopu; o jego 

istnieniu wnioskuje się na podstawie ruchów gwiazd i gazu w Galaktyce. Może ono 

zawierać nawet 10 razy więcej masy niż widzialna część Galaktyki.

Droga Mleczna jest galaktyką spiralną średnich rozmiarów; można się w niej 

doliczyć kilkuset miliardów gwiazd. W całym dostępnym naszym obserwacjom 

Wszechświecie istnieje około

100 miliardów galaktyk, z których każda zawiera mniej więcej tyle samo 

gwiazd! Wśród galaktyk, które obserwujemy, około 70% stanowią galaktyki spiralne; 

reszta ma bardziej sferyczne kształty i nosi nazwę galaktyk eliptycznych. Największe 

spośród nich to olbrzymie galaktyki eliptyczne, ponad 10 razy bardziej masywne niż 

Droga Mleczna.

Większość galaktyk tworzy grupy. W naszej Grupie Lokalnej najbliżej Drogi 

Mlecznej znajdują się małe galaktyki-satelity, krążące wokół niej. Obiekty te można 

zaobserwować na południowej półkuli nieba; są to Wielki i Mały Obłok Magellana. 

Około 6 milionów lat świetlnych dzieli nas od najbliższej dużej galaktyki, Wielkiej 

Mgławicy w Andromedzie - domu Kelwanów, którzy w odcinku Jakiekolwiek inne 

imię próbowali przejąć Enterprise i powrócić do swojej galaktyki. Przy prędkości 9 

warpów podróż ta trwałaby blisko tysiąc lat!

Ponieważ światło potrzebuje określonego czasu, by przebyć dany dystans, 

patrząc coraz dalej, cofamy się w czasie. Obecnie, posługując się 

elektromagnetycznymi czujnikami, możemy spojrzeć wstecz w czasie aż do okresu, 

gdy Wszechświat miał około 300 tysięcy lat. Wcześniej materia istniała w postaci 

gorącego, zjonizowanego gazu, nieprzezroczystego dla promieniowania 

elektromagnetycznego. Gdy patrzymy we wszystkich kierunkach, obserwujemy 

background image

promieniowanie wyemitowane w chwili, gdy materia i promieniowanie „odłączyły się 

od siebie”. Promieniowanie to nosi nazwę mikrofalowego promieniowania tła. 

Obserwacje tego promieniowania, zwłaszcza ostatnie, prowadzone za pomocą satelity 

COBE, wystrzelonego przez NASA w 1989 roku, pozwoliły nam uzyskać obraz 

Wszechświata z okresu, kiedy miał on tylko 300 tysięcy lat.

Wszechświat rozszerza się jednorodnie. W wyniku tego odległe galaktyki 

oddalają się od nas; im dalej się znajdują, tym szybciej uciekają, a ich prędkość jest 

wprost proporcjonalna do dzielącej nas od nich odległości. Tempo ekspansji 

Wszechświata, opisywane przez wielkość, zwaną stałą Hubble'a, jest takie, że 

galaktyki znajdujące się w odległości 10 milionów lat świetlnych od nas oddalają się 

ze średnią prędkością 150-300 km/s. Gdy cofamy się w czasie, okazuje się, że mniej 

więcej

10-20 miliardów lat temu wszystkie obserwowane galaktyki we 

Wszechświecie znajdowały się blisko siebie. To wówczas nastąpił Wielki Wybuch.

CIEMNA MATERIA. Jak już wcześniej wspomniałem, wiele świadczy o tym, 

że nasza Galaktyka zanurzona jest w oceanie niewidocznej materii. Badając ruchy 

gwiazd, obłoków gazu wodorowego, a nawet Wielkiego i Małego Obłoku Magellana 

wokół centrum Drogi Mlecznej i posługując się prawami Newtona, które wiążą 

prędkość krążących obiektów z przyciągającą je grawitacyjnie masą, stwierdzono, że 

naszą Galaktykę otacza sferyczne halo ciemnej materii. Rozciąga się ono od 

galaktycznego centrum na odległość być może nawet 10 razy większą niż odległość 

między centrum a Układem Słonecznym. Materia ta stanowi co najmniej 90% masy 

Drogi Mlecznej. Co więcej, z obserwacji ruchów innych galaktyk, z galaktykami 

eliptycznymi włącznie, a także ruchów grup galaktyk wynika, że z tymi układami 

związana jest większa ilość materii, niż można by twierdzić na podstawie liczby 

widocznych obiektów. Wygląda więc na to, że cały dostępny naszym obserwacjom 

Wszechświat zdominowany jest przez ciemną materię. Ocenia się, że stanowi ona 90-

99% masy Wszechświata.

Pojęcie ciemnej materii wkradło się zarówno do serii Następne pokolenie, jak 

i do serii Voyager w bardzo zabawny sposób. W odcinku Catnexls serii Voyager 

statek zanurza się na przykład w „mgławicy ciemnej materii”, która, jak łatwo można 

sobie wyobrazić, przypomina ciemny obłok, tak że nie można zajrzeć do jej wnętrza. 

Enterprise spotkał się już wcześniej z podobnymi obiektami, na przykład ze 

wspomnianą wcześniej „czarną gromadą”. Uderzającą cechą ciemnej materii jest 

background image

jednak nie to, że w jakiś sposób przesłania światło, lecz że nie świeci - to znaczy nie 

emituje promieniowania - a nawet nie pochłania znaczących jego ilości. W 

przeciwnym razie można byłoby ją wykryć za pomocą teleskopów. Gdybyśmy się 

jednak znajdowali wewnątrz obłoku ciemnej materii, a tak prawdopodobnie jest, 

nawet byśmy jej nie zauważyli.

Kwestia natury, pochodzenia i rozkładu ciemnej materii we Wszechświecie 

jest jednym z najbardziej ekscytujących i dotąd nie rozwiązanych problemów 

współczesnej kosmologii. Ponieważ ta nieznana materia wnosi dominujący wkład do 

gęstości masy we Wszechświecie, jej rozkład musiał określić, kiedy ł w jaki sposób 

obserwowalna materia zapadła się grawitacyjnie, tworząc gromady galaktyk, 

galaktyki, gwiazdy i planety, które czynią Wszechświat tak interesującym. Nasze 

istnienie bezpośrednio zależy od ciemnej materii. Co więcej, ilość ciemnej materii we 

Wszechświecie będzie miała decydujący wpływ na jego ostateczny los: czy 

Wszechświat zakończy swoje istnienie z wielkim hukiem (poprzez zapadnięcie się), 

czy też będzie się rozszerzał w nieskończoność (nawet gdy gwiazdy już się wypalą), 

będzie zależało od tego, ile materii - i jakiego rodzaju -zawiera, ponieważ 

przyciąganie grawitacyjne spowalnia ekspansję.

Wiele wskazuje na to, że ciemna materia może się składać z cząstek zupełnie 

innych niż protony i neutrony, tworzące zwykłą materię. Niezależne oceny ilości 

zwykłej materii we Wszechświecie - oparte na obliczeniach tempa reakcji jądrowych 

w młodym Wszechświecie oraz teorii powstawania lekkich pierwiastków - sugerują, 

że w kosmosie może być za mało protonów, aby mogła się z nich składać ciemna 

materia wokół galaktyk i gromad. Co więcej, wygląda na to, że aby z niewielkich 

fluktuacji w gorącej plazmie młodego Wszechświata powstały galaktyki i gromady, 

które obserwujemy dzisiaj, musiał istnieć jakiś nowy rodzaj cząstek elementarnych, 

nie oddziałujących z promieniowaniem elektromagnetycznym. Jeśli ciemna materia 

rzeczywiście składa się z cząstek elementarnych nieznanego rodzaju, wówczas:

(a) Ciemna materia nie tylko znajduje się gdzieś w kosmosie, lecz również w 

pokoju, w którym czytasz tę książkę, i niezauważalnie przenika przez Twoje ciało. Te 

egzotyczne cząstki elementarne nie tworzą obiektów astronomicznych, lecz raczej 

rozproszony „gaz” płynący przez Galaktykę. Ponieważ nie oddziałują one wcale lub, 

w najlepszym razie, bardzo słabo z materią, mogą swobodnie przenikać przez obiekty 

tak duże jak Ziemia, podobnie jak znane nam neutrina (które nie powinny być obce 

trekkerom i o których będzie jeszcze mowa).

background image

(b) Ciemną materię można by bezpośrednio wykryć na Ziemi za pomocą 

skomplikowanych technik do detekcji cząstek elementarnych. Obecnie buduje się 

detektory, które powinny zarejestrować różne rodzaje cząstek-kandydatów na 

składniki ciemnej materii.

(c) Odkrycie takich cząstek mogłoby zrewolucjonizować fizykę cząstek 

elementarnych. Jest dosyć prawdopodobne, że cząstki takie są pozostałościami po 

procesach zachodzących w bardzo młodym Wszechświecie - zanim jeszcze osiągnął 

on wiek jednej sekundy; wiązałyby się one wówczas z fizyką energii 

porównywalnych lub nawet większych od tych, które możemy obecnie badać za 

pomocą akceleratorów.

Hipotezy te są ekscytujące, nie możemy jednak wykluczyć, że ciemna materia 

jest zbudowana z czegoś mniej egzotycznego. Istnieje wiele sposobów na połączenie 

protonów i neutronów tak, aby nie świeciły. Gdybyśmy na przykład zapełnili 

Galaktykę śniegowymi kulami lub głazami, trudno byłoby je wykryć. Najbardziej 

chyba prawdopodobną możliwością jest w tym przypadku sytuacja, w której 

Galaktykę zapełniają obiekty niewiele mniejsze od gwiazd, choć zbyt małe, aby 

rozpoczęły się w ich wnętrzach reakcje jądrowe. Takie obiekty noszą nazwę 

brązowych karłów, a Data i jego towarzysze na pokładzie Enterprise mówili o nich 

wielokrotnie (na przykład w odcinku Polowanie na człowieka). Obecnie prowadzone 

są ciekawe programy badawcze, mające na celu ustalenie, czy brązowe karły - znane 

także jako MACHO (od ang. Massive Astrophysical Compact Halo Objects - 

masywne astrofizyczne zwarte obiekty [wchodzące w skład] halo [galaktycznego]) 

stanowią istotny składnik halo ciemnej materii, otaczającego Drogę Mleczną. Chociaż 

obiektów tych nie można bezpośrednio zaobserwować, jeśli jeden z nich przejdzie 

przed gwiazdą, jego grawitacja zaburzy bieg promieni świetlnych dochodzących do 

nas z tej gwiazdy, tak że będzie się ona wydawała jaśniejsza. Zjawisko to, zwane 

soczewkowaniem grawitacyjnym, przewidział Einstein już w latach trzydziestych, a 

obecnie dysponujemy technologią, która pozwala na wykrycie tego efektu. W trakcie 

wspomnianych programów badawczych każdej nocy obserwuje się miliony gwiazd 

naszej Galaktyki w poszukiwaniu tego zjawiska. Czułość używanych przyrządów jest 

wystarczająca, aby wykryć halo zbudowane z obiektów MACHO, jeśli rzeczywiście 

są one dominującym składnikiem ciemnej materii otaczającej naszą Galaktykę. 

Pierwsze wyniki pozwoliły stwierdzić, że prawdopodobnie halo nie składa się z 

obiektów typu MACHO, ale kwestia ta pozostaje ciągle otwarta.

background image

GWIAZDY NEUTRONOWE. Wspomniałem już, że obiekty te są 

pozostałością po zapadniętych jądrach masywnych gwiazd, które przeszły stadium 

supernowej. Chociaż gwiazdy neutronowe mają zwykle masę nieco większą niż 

Słońce, są tak ściśnięte, że ich średnica nie jest większa od Manhattanu! Jeszcze raz 

twórcy Star Trek przeszli sami siebie w kwestii nazewnictwa. Enterprise kilkakrotnie 

znajduje materię, która została wyrzucona z gwiazdy neutronowej, a którą scenarzyści 

określają mianem „neutronium”. Jest to właściwa nazwa, gdyż gwiazdy neutronowe 

składają się niemal wyłącznie z neutronów przylegających tak ściśle do siebie, że 

tworzą w zasadzie jedno wielkie jądro atomowe. Maszyna Dnia Sądu Ostatecznego - 

w odcinku o tej samej nazwie - miała być zbudowana z czystego neutronium i dlatego 

mogłaby pozostawać niewrażliwa na broń Federacji. Aby jednak materia ta była 

stabilna, musi się ona znajdować pod niezwykle wysokim ciśnieniem, wytworzonym 

przez przyciąganie grawitacyjne kuli o masie gwiazdy i promieniu zaledwie 15 

kilometrów. W rzeczywistym świecie taka materia może istnieć tylko jako część 

gwiazdy neutronowej.

Enterprise kilka razy znajdował się w pobliżu gwiazd neutronowych. W 

odcinku Ewolucja, w chwili gdy Nanici zaczęli zjadać komputery statku, załoga 

zajmowała się właśnie badaniem mającej wkrótce wybuchnąć gwiazdy neutronowej. 

W odcinku Społeczeństwo doskonałe statek musi odchylić tor fragmentu jądra 

gwiazdy, lecącego w kierunku Moabu IV.

Nie ma wątpliwości, że w naszej Galaktyce istnieją miliony gwiazd 

neutronowych. Większość z nich rodzi się z niewiarygodnie dużymi polami 

magnetycznymi. Gdy takie gwiazdy szybko się obracają, stają się wspaniałymi 

radiolatarniami. Każdy ich biegun emituje promieniowanie i jeśli kierunek pola 

magnetycznego jest nachylony względem osi obrotu, powstaje omiatająca przestrzeń 

wiązka fal radiowych. Takie periodyczne sygnały radiowe możemy rejestrować na 

Ziemi, a ich źródła nazywamy pulsarami. Obracając się gwiazdy te są najlepszymi 

zegarami we Wszechświecie. Sygnały pulsarów mogą odmierzać czas z dokładnością 

większą niż jedna mikrosekunda na rok. Niektóre pulsary wysyłają więcej niż 1000 

impulsów na sekundę. Oznacza to, że obiekt będący w zasadzie olbrzymim jądrem 

atomowym o masie Słońca i średnicy 10-20 kilometrów obraca się ponad tysiąc razy 

w ciągu sekundy. Trudno to sobie nawet wyobrazić. Prędkość obrotu na powierzchni 

gwiazdy neutronowej równa jest zatem prawie połowie prędkości światła! Pulsary 

udowadniają, że natura potrafi stworzyć obiekty bardziej niezwykłe, niż mógłby 

background image

wymyślić jakikolwiek scenarzysta Star Trek.

INNE WYMIARY. Gdy James T. Kirk na przemian zanurza się i wynurza z 

naszego Wszechświata w odcinku Sieć tholionsko, dowiadujemy się, że przyczyną 

tego jest „przestrzenna granica faz”, łącząca płaszczyzny o różnej liczbie wymiarów, 

które w normalnych warunkach są „wszechświatami równoległymi”. Kirk już 

wcześniej miał dwukrotnie do czynienia z wszechświatami równoległymi: jeden z 

nich był zbudowany z antymaterii (w odcinku Czynnik alternatywny), a do drugiego 

dostał się za pomocą transportera (w odcinku Lustro, lustro). W serii Następne 

pokolenie spotykamy się z kontinuum Q, nieliniowym czasowym „oknem do innych 

wymiarów” drą Paula Manheima i, oczywiście, samą podprzestrzenią, zawierającą 

nieskończoną liczbę wymiarów, gdzie mogą ukrywać się obce istoty, takie jak te, 

które porwały porucznika Rikera w odcinku Rozłamy.

Przypuszczenie, że cztery wymiary przestrzeni i czasu, w których żyjemy, nie 

są wszystkim, co istnieje, jest trwałym składnikiem potocznej świadomości. 

Niedawno psychiatra z Harvardu napisał książkę, która odniosła sukces 

(przysparzając mu zresztą kłopotów na tamtejszym Wydziale Medycyny), 

poświęconą badaniom pacjentów, którzy twierdzili, że zostali porwani przez obcych. 

Pytając, skąd pochodzą ci obcy i jak się tu dostali, sugerował, że odpowiedź brzmi: 

„Z innego wymiaru”.

U korzeni tego romansu z wyższymi wymiarami leży niewątpliwie szczególna 

teoria względności. Gdy Hermann Minkowski połączył trójwymiarową przestrzeń i 

czas, tworząc czterowymiarową czasoprzestrzeń, przypuszczenie, że proces ten 

można kontynuować, wydawało się naturalne. Co więcej, gdy ogólna teoria 

względności pokazała, że to, co postrzegamy jako siłę grawitacji, może wiązać się z 

krzywizną czasoprzestrzeni, nie było już nic oburzającego w hipotezie, że pozostałe 

siły są wynikiem zakrzywienia w innych jeszcze wymiarach.

Jako jeden z pierwszych rozważał ten pomysł w 1919 roku fizyk polskiego 

pochodzenia, Theodor Kałuża; niezależnie od niego uczynił to w 1926 roku szwedzki 

fizyk Oskar Klein. Zaproponowali oni zjednoczenie elektromagnetyzmu i grawitacji 

w pięciowymiarowym świecie. Może siła elektromagnetyczna jest związana z 

pewnym „zakrzywieniem” w piątym wymiarze, tak jak siła grawitacji to wynik 

zakrzywienia czterowymiarowej czasoprzestrzeni? Ten bardzo piękny pomysł nie jest 

wolny od problemów. Każdy scenariusz, który wprowadza dodatkowe wymiary we 

Wszechświecie, powinien wyjaśniać, dlaczego nie doświadczamy tych wymiarów tak, 

background image

jak doświadczamy przestrzeni i czasu. Odpowiedź na to pytanie ma wielkie 

znaczenie, ponieważ pojawia się wielokrotnie, gdy fizycy rozważają możliwość 

istnienia wyższych wymiarów we Wszechświecie.

Wyobraźmy sobie cylinder i poruszającego się po nim inteligentnego 

robaczka. Dopóki obwód cylindra jest duży w porównaniu z rozmiarem robaczka, 

może on wędrować w obu wymiarach i będzie mu się zdawało, że przemieszcza się 

po dwuwymiarowej powierzchni.

Jeśli jednak obwód cylindra stanie się bardzo mały, robaczek będzie się 

poruszał po obiekcie jednowymiarowym - to znaczy po linie lub strunie - tylko w 

górę lub w dół:

Zastanówmy się teraz, w jaki sposób robaczek mógłby dowiedzieć się, że 

istnieje inny wymiar, odpowiadający obwodowi cylindra. Za pomocą mikroskopu 

mógłby określić szerokość „struny”. Długość fali promieniowania potrzebnego do 

wykrycia tak małych rozmiarów musiałaby dorównać średnicy cylindra lub być 

mniejsza, ponieważ, jak zauważyłem w rozdziale

background image

piątym, fale rozpraszają się tylko na tych obiektach, których rozmiary są co 

najmniej porównywalne z długością fal. Ponieważ energia promieniowania rośnie, 

gdy długość fali maleje, aby zobaczyć ten dodatkowy wymiar, potrzebna byłaby 

pewna minimalna energia.

Gdyby piąty wymiar był w jakiś sposób „zwinięty” w ciasny okrąg, dopóki 

nie zogniskowalibyśmy dużej ilości energii na małej przestrzeni, nie moglibyśmy 

wysyłać przezeń fal, umożliwiających stwierdzenie, że istnieje, i świat nadal 

wydawałby się nam czterowymiarowy. Wiemy, że przestrzeń jest trójwymiarowa, 

ponieważ możemy ją badać za pomocą fal rozchodzących się we wszystkich trzech 

wymiarach. Jeśli okazałoby się, że fale, które chcemy wysłać do piątego wymiaru, 

wymagają znacznie większych energii, niż potrafimy wyprodukować nawet w 

największych akceleratorach, nie moglibyśmy doświadczać tego dodatkowego 

wymiaru.

Teoria Kaluzy-Kleina, mimo że sama w sobie interesująca, nie jest kompletna. 

Po pierwsze, nie wyjaśnia ona, dlaczego piąty wymiar miałby być zwinięty w mały 

okrąg. Po drugie, wiemy obecnie o istnieniu dwóch innych, poza 

elektromagnetyzmem i grawitacją, podstawowych oddziaływań w naturze -silnych i 

słabych oddziaływań jądrowych. Dlaczego mielibyśmy się zatrzymać na piątym 

wymiarze? Czy nie należałoby włączyć do teorii wystarczającej liczby dodatkowych 

wymiarów, by pomieścić wszystkie fundamentalne oddziaływania?

Współczesna fizyka cząstek poszła tą właśnie drogą. Badania w dziedzinie, 

zwanej teorią superstrun, skupiały się początkowo na próbach rozszerzenia ogólnej 

teorii względności, tak aby można było skonstruować spójną teorię kwantowej 

grawitacji. W końcu jednak powrócił problem zunifikowanej teorii wszystkich 

oddziaływań.

background image

Wspominałem już o kłopotach związanych ze stworzeniem teorii, w której 

ogólna teoria względności byłaby zgodna z mechaniką kwantową. Główną trudnością 

jest tutaj próba zrozumienia, w jaki sposób należy traktować kwantowe fluktuacje 

czasoprzestrzeni. W teorii cząstek elementarnych kwantowe wzbudzenia pól - na 

przykład pola elektrycznego – przejawiają się jako cząstki elementarne, czyli kwanty. 

Gdy jednak próbujemy zrozumieć kwantowe wzbudzenia pola grawitacyjnego -które 

w ogólnej teorii względności odpowiadają kwantowym wzbudzeniom 

czasoprzestrzeni - obliczenia matematyczne prowadzą do absurdalnych przewidywań.

Postęp, jaki dokonał się w teorii strun, polegał na wysunięciu hipotezy, że na 

poziomie mikroskopowym, czyli w bardzo małych skalach (bliskich 10~

33

 

centymetra), gdzie efekty kwantowej grawitacji mogą być istotne, to, co uważamy za 

punktowe cząstki elementarne, można w rzeczywistości opisać jako wibrujące struny. 

Masa każdej cząstki odpowiadałaby w pewnym sensie energii drgań tych strun.

Tę raczej dziwaczną propozycję wysunięto dlatego, że w latach 

siedemdziesiątych odkryto, iż taka teoria wymaga istnienia cząstek o tych samych 

własnościach, co kwantowe wzbudzenia czasoprzestrzeni, zwane grawitonami. 

Ogólna teoria względności byłaby więc w pewnym sensie zawarta w teorii strun w 

sposób zgodny z mechaniką kwantową.

Kwantowa teoria strun nie może być jednak matematycznie spójna w czterech, 

pięciu, ani nawet w sześciu wymiarach. Okazuje się, że potrzeba do tego albo 

dziesięciu, albo dwudziestu sześciu wymiarów! Porucznik Reginald Barclay - gdy na 

chwilę po zderzeniu z sondą cyteriańską osiągnął iloraz inteligencji równy 1200 - 

odbył nawet w holodeku poważną dyskusję z Albertem Einsteinem na temat tego, 

która z tych dwóch możliwości bardziej sprzyja włączeniu mechaniki kwantowej do 

teorii względności.

Ów nadmiar wymiarów może się wydawać kłopotliwy, ale szybko 

uświadomiono sobie, że otwiera on także pewne możliwości. Niewykluczone, że 

wszystkie fundamentalne oddziaływania w przyrodzie dałoby się włączyć do teorii 

dziesięciu lub więcej wymiarów, z których wszystkie, z wyjątkiem znanych nam 

czterech, zwijają się do rozmiarów Plancka (10

33

 centymetra) -jak przypuszczał 

porucznik Barclay - i są obecnie niewykrywalne.

Niestety, wielkie nadzieje okazały się płonne. Nie mamy obecnie pojęcia, czy 

nieśmiałe postulaty teorii strun mogą prowadzić do stworzenia zunifikowanej Teorii 

Wszystkiego. Podobnie jak w przypadku teorii Kaluzy-Kleina, nie jest jasne, 

background image

dlaczego wyższe wymiary, jeśli istnieją, miałyby się zwijać, pozostawiając 

czterowymiarową czasoprzestrzeń.

Morał z tej opowieści jest następujący: możliwe, że we Wszechświecie 

istnieją wyższe wymiary. Te dodatkowe wymiary nie mają jednak nic wspólnego z 

przestrzeniami zamieszkiwanymi przez obce istoty, lubujące się w porywaniu 

pacjentów oddziałów psychiatrycznych (lub na przykład komandora Ri-kera). Nie są 

one „równoległymi wszechświatami”. Nie należy ich także mieszać z czterema 

wymiarami czasoprzestrzeni, twierdząc, że możliwe jest przenoszenie przedmiotów z 

jednego miejsca w drugie poprzez inny wymiar, na co wydaje się pozwalać 

„podprzestrzeń” we wszechświecie Stor Trek.

Nie możemy jednak wykluczyć istnienia mikroskopowych, czy nawet 

makroskopowych „pomostów” pomiędzy innymi (równoległymi) wszechświatami, 

które bez nich są rozłączone. W ogólnej teorii względności obszary o bardzo dużej 

krzywiźnie - we wnętrzu czarnej dziury lub w tunelu czasoprzestrzennym - mogą 

łączyć zwykle nie powiązane i potencjalnie bardzo rozległe obszary czasoprzestrzeni. 

Biorąc pod uwagę obecny obraz Wszechświata, nie widzę powodu, dla którego 

należałoby spodziewać się występowania takich zjawisk poza czarnymi dziurami i 

tunelami czasoprzestrzennymi. Ponieważ jednak nie możemy tego wykluczyć, 

powinniśmy pogodzić się z tym, że statki Federacji wciąż je napotykają.

ANYONY. W odcinku Następna faza serii Następne pokolenie w wyniku 

jednoczesnego działania transportera i romulanskiego urządzenia maskującego, które 

powoduje, że materia jest „niezgodna w fazie” z inną materią, Geordi LaForge i Ro 

Laren znikają. Uznani za zmarłych, pozostają niewidoczni i oddzieleni od świata aż 

do czasu, gdy Data modyfikuje w innym celu „emiter anyonów” i w cudowny sposób 

„odfazowuje” ich.

Jeśli twórcy Stor Trek nigdy nie słyszeli o anyonach - a założę się, że tak było 

- ich umiejętność dobierania właściwych słów jest naprawdę niesamowita. Anyony to 

teoretyczne twory, które wymyślił i nazwał - wraz ze swoimi współpracownikami 

mój przyjaciel Frank Wilczek, fizyk z Institute for Advanced Study w Princeton. 

Nawiasem mówiąc, wynalazł on również inną cząstkę - będącą być może składnikiem 

ciemnej materii -którą nazwał aksjonem - od nazwy proszku do prania. „Aksjonowe 

układy scalone” również pojawiają się w Star Trek - jako część sieci neuronowej 

skomplikowanego urządzenia. Wróćmy jednak do tematu.

W trójwymiarowej przestrzeni, w której żyjemy, cząstki elementarne określa 

background image

się jako fermiony lub bozony, w zależności od ich spinu. Z każdym rodzajem cząstki 

elementarnej łączymy liczbę kwantową, która podaje wartość jej spinu. Liczba ta 

może być całkowita (O, l, 2,...) lub połówkowa (1/2, 3/2, 5/2,...). Cząstki o spinie 

całkowitym nazywamy bozonami, a o spinie połówkowym - fermionamł. Fermiony 

zachowują się inaczej niż bozony: kiedy zamienimy miejscami dwa identyczne 

fermiony, funkcję falową opisującą ich własności należy pomnożyć przez -l, 

natomiast gdy zamieniamy bozony, z funkcją falową nic się nie dzieje. Zatem dwa 

fermiony nigdy nie mogą znajdować się w tym samym miejscu, ponieważ w takim 

przypadku ich zamiana dałaby konfigurację identyczną, ale funkcję falową należałoby 

pomnożyć przez -l, a jedyną wartością, która po pomnożeniu przez -l nie ulega 

zmianie, jest O. Funkcja falowa musi więc znikać. Stąd właśnie bierze się słynny 

zakaz Pauliego - pierwotnie stosowany do elektronu - który mówi, że dwa identyczne 

fermiony nie mogą zajmować tego samego stanu kwantowomechanicznego.

Okazuje się, że jeśli pozwolimy cząstkom poruszać się tylko w dwóch 

wymiarach - jak są do tego zmuszane dwuwymiarowe istoty napotkane przez 

Enterprise lub, co dla nas istotniejsze, jak to się dzieje w rzeczywistym świecie, gdy 

ustawienie atomów w krysztale zmusza elektrony do poruszania się tylko w 

płaszczyźnie dwuwymiarowej - reguły mechaniki kwantowej, znane z 

trójwymiarowej przestrzeni, ulegają zmianie. Spin nie jest już skwantowany i jego 

wartość dla danej cząstki może być dowolna. Stąd zamiast fermionów czy bozonów 

mamy anyony (od ang. any -jakikolwiek). Takie było pochodzenie tej nazwy i 

problemu, który badał Wilczek z innymi naukowcami.

Wracając do scenarzystów Star Trele to zabawne, że liczba, przez którą należy 

pomnożyć funkcję falową cząstek, gdy się je zamienia, nazywana jest „fazą”. Funkcje 

falowe fermionów mnoży się przez fazę równą -l, natomiast bozonów przez fazę 

równą l, dzięki czemu funkcje tych ostatnich nie ulegają zmianie. Funkcje falowe 

anyonów mnoży się przez kombinację l i liczby urojonej (liczby urojone to 

pierwiastki kwadratowe z liczb ujemnych), więc rzeczywiście anyony są „niezgodne 

w fazie” z normalnymi cząstkami. Czyż nie wynika stąd, że „emiter anyonów” 

mógłby zmieniać fazę?

STRUNY KOSMICZNE. W odcinku pod tytułem Strata serii Następne 

pokolenie załoga Enterprise spotyka zagubione dwuwymiarowe istoty. Żyją one na 

„kawałku struny kosmicznej”. W odcinku tym strunę opisuje się jako nieskończenie 

cienkie włókno o bardzo dużej sile przyciągania grawitacyjnego, które drga z 

background image

charakterystycznymi częstościami „podprzestrzennymi”.

W fizyce struny kosmiczne pojawiły się jako obiekty, które powstały podczas 

przejścia fazowego w młodym Wszechświecie. Ostatnio mam okazję wiele słyszeć o 

strunach kosmicznych, gdyż na Wydziale Fizyki mojego uniwersytetu pojawił się 

jeden ze światowych ekspertów od tych teoretycznych obiektów. Ich własności pod 

pewnymi względami miałyby przypominać własności obiektu napotkanego przez 

Enterprise.

W czasie przejścia fazowego - na przykład gdy woda gotuje się lub zamarza - 

konfiguracja cząstek składających się na daną substancję ulega zmianie. Zamarzając 

woda tworzy strukturę krystaliczną. Ustawione w różnych kierunkach kryształy 

stopniowo rosną i spotykają się, wyznaczając przypadkowe linie, które układają się 

następnie we wzory tak pięknie wyglądające zimą na okiennej szybie. Podczas 

przejścia fazowego w młodym Wszechświecie zmienia się konfiguracja materii, 

promieniowania i pustej przestrzeni (która, przypominani, może również zawierać 

energię). Czasami w trakcie takich przejść fazowych różne obszary Wszechświata 

rozrastają się w różne konfiguracje. W miarę jak konfiguracje te rosną, mogą się 

również spotykać - czasem w jakimś punkcie, a czasem wzdłuż linii, zaznaczając w 

ten sposób granicę między tymi obszarami. W owej linii granicznej zostaje uwięziona 

energia i linia ta tworzy to, co nazywamy struną kosmiczną.

Nie mamy pojęcia, czy struny kosmiczne rzeczywiście powstały we 

wczesnym Wszechświecie, ale jeśli tak się stało i jeśli dotrwały do obecnych czasów, 

mogłyby wywoływać niezwykłe efekty. Byłyby nieskończenie cienkie - cieńsze niż 

średnica protonu - ale miałyby olbrzymią gęstość, sięgającą nawet miliona milionów 

ton na centymetr. Struny mogłyby układać się w ogniska, wokół których zapadałaby 

się materia, tworząc na przykład galaktyki. Mogłyby również „drgać”, nie emitując 

jednak fal podprzestrzennych, lecz grawitacyjne. Dzięki tym falom grawitacyjnym 

można by nawet wykryć obecność struny kosmicznej, zanim jeszcze udałoby sieją 

zaobserwować bezpośrednio.

I na tym koniec podobieństw strun w fizyce do strun w Star Trek. Zajmijmy 

się teraz różnicami. Dzięki sposobowi, w jaki powstają, struny kosmiczne nie mogą 

istnieć we fragmentach. Mogą pojawiać się jedynie w postaci zamkniętych pętli lub 

pojedynczych długich włókien, wijących się we Wszechświecie. Co więcej, mimo ich 

olbrzymiej gęstości, struny kosmiczne nie oddziałują grawitacyjnie na oddalone od 

nich obiekty. Działanie nagłej siły grawitacyjnej odczujemy tylko wtedy, gdy struna 

background image

kosmiczna będzie nas mijała. Są to jednak dość subtelne kwestie i ogólnie rzecz 

biorąc twórcy Star Trek poradzili sobie ze strunami kosmicznymi całkiem nieźle.

POMIARY KWANTOWE. W serii Następne pokolenie znalazł się wspaniały 

odcinek pod tytułem Wszechświaty równolegle, w którym Worf przeskakuje między 

różnymi „rzeczywistościa-mi kwantowymi”. Odcinek ten porusza, chociaż 

niepoprawnie, jeden z najbardziej fascynujących aspektów mechaniki kwantowej: 

teorię pomiaru kwantowego.

Ponieważ nie możemy bezpośrednio zaobserwować zjawisk kwantowych, 

cały nasz intuicyjny fizyczny obraz Wszechświata ma charakter klasyczny. Gdy 

mówimy o mechanice kwantowej, posługujemy się w zasadzie językiem mechaniki 

klasycznej, próbując wyjaśniać świat kwantowy za pomocą znajomych nam pojęć. 

Podejście to, które zwykle określa się jako „interpretację mechaniki kwantowej” i 

które tak fascynuje filozofów nauki, jest błędne. Naprawdę powinniśmy się zajmować 

„interpretacją mechaniki klasycznej”, to znaczy tym, w jaki sposób klasyczny świat, 

który widzimy - a który jest tylko przybliżeniem leżącej głębiej rzeczywistości 

mającej naturę kwantową -można wyjaśnić, posługując się odpowiednimi 

wielkościami kwantowymi.

Jeśli będziemy się upierać przy interpretacji zjawisk kwantowych za pomocą 

pojęć klasycznych, w nieunikniony sposób niektóre zjawiska wydadzą się nam 

paradoksalne lub niemożliwe. Tak właśnie powinno być. Mechanika klasyczna nie 

może poprawnie wyjaśnić zjawisk kwantowych, nie ma więc powodu, aby klasyczne 

opisy miały sens.

Wyraziwszy ten sprzeciw, dalej będę posługiwał się pojęciami mechaniki 

klasycznej, ponieważ tylko takie narzędzia językowe są mi dostępne. Chociaż do 

opisu mechaniki kwantowej używam narzędzi matematycznych, podobnie jak inni 

fizycy mogę się uciekać jedynie do klasycznego obrazu, ponieważ moje bezpośrednie 

doświadczenie ma charakter klasyczny.

Jak już wspominałem w rozdziale piątym, jedną z najbardziej niezwykłych 

cech mechaniki kwantowej jest to, że nawet jeśli zaobserwujemy pewną cechę 

obiektu, nie możemy stwierdzić, czy istniała ona na chwilę przed obserwacją. Sam 

proces obserwacji może zmienić charakter rozważanego układu fizycznego. 

Kompletny opis konfiguracji danego układu w określonym czasie zapewnia jego 

funkcja falowa i ewoluuje ona zgodnie z deterministycznymi prawami fizyki. Sprawy 

komplikuje jednak to, że funkcja falowa może obejmować dwie lub więcej wzajemnie 

background image

rozłącznych konfiguracji w tym samym czasie.

Gdy na przykład cząstka obraca się zgodnie z kierunkiem ruchu wskazówek 

zegara, mówimy, że jej spin jest skierowany „w górę”. Gdy obraca się w kierunku 

przeciwnym, jej spin skierowany jest „w dół”. Funkcja falowa tej cząstki może 

zawierać sumę tych dwóch stanów o równych prawdopodobieństwach: zarówno spin 

skierowany w górę, jaki i spin skierowany w dół. Gdy zmierzymy kierunek spinu, 

okaże się, że jest on skierowany albo w górę, albo w dół. Kiedy już dokona się 

pomiaru, funkcja falowa cząstki będzie od tego momentu zawierała tylko zmierzony 

składnik. Jeśli pomiar wykazał spin skierowany w górę, taki sam wynik dadzą dla 

danej cząstki następne pomiary.

Obraz ten stwarza pewne problemy. Można by zapytać, w jaki sposób cząstka 

może przed pomiarem mieć spin skierowany zarówno w górę, jak i w dół. 

Prawidłowa odpowiedź brzmi, że nie ma żadnego z nich. Kierunek spinu był przed 

pomiarem nieokreślony.

Owo dziwne zachowanie kwantowej funkcji falowej jest szczególnie 

niepokojące, gdy myślimy o istotach żywych. Przypomnijmy sobie na przykład 

słynny paradoks kota Schródin-gera. (Erwin Schródłnger był jednym z tych młodych 

ludzi, którzy na początku naszego stulecia przyczynili się do odkrycia praw 

mechaniki kwantowej. Równanie opisujące ewolucję czasową funkcji falowej nazywa 

się równaniem Schrodingera). Wyobraźmy sobie pudełko, w którym siedzi kot. 

Wewnątrz pudełka znajduje się rewolwer wycelowany w kota i połączony z 

radioaktywnym źródłem. Możliwość rozpadu źródła w zadanym czasie określona jest 

przez pewne kwantowe prawdopodobieństwo. Gdy dojdzie do rozpadu, rewolwer 

wypali i zabije kota. Czy funkcja falowa opisująca kota przed otwarciem pudełka jest 

liniową superpozycją żywego i martwego kota? Brzmi to absurdalnie. Podobnie nasza 

świadomość jest zawsze określona. Czy akt świadomości jest pomiarem? Jeśli tak, 

można powiedzieć, że w każdej chwili istnieje niezerowe kwantowe 

prawdopodobieństwo zaistnienia kilku różnych zdarzeń i to akt naszej świadomości 

określa, którego ze zdarzeń doświadczamy. Rzeczywistość ma więc nieskończoną 

liczbę odgałęzień. W każdej chwili nasza świadomość określa, w którym odgałęzieniu 

się znajdujemy, ale a priori istnieje nieskończona liczba innych możliwości.

Hipoteza istnienia „wielu światów” - jedna z interpretacji mechaniki 

kwantowej, według której jest możliwe, że w jakimś innym odgałęzieniu kwantowej 

funkcji falowej to Stephen Hawking pisze tę książkę, a ja przedmowę - stała się 

background image

prawdopodobnie przyczyną nieszczęścia biednego Worfa; potwierdza to sam Data. 

Gdy statek Worfa wędruje przez „kwantową szczelinę w czasoprzestrzeni”, wysyłając 

jednocześnie „sygnał podprzestrzenny”, granice między rzeczywistościami 

kwantowymi „załamują się” i Worf zaczyna co pewien czas przeskakiwać z jednego 

odgałęzienia funkcji falowej do innego, doświadczając licznych alternatywnych 

rzeczywistości kwantowych. Oczywiście jest to niemożliwe, ponieważ w chwili 

dokonania pomiaru cały układ, z aparaturą pomiarową włącznie (w tym przypadku z 

Worfem), ulega zmianie. Gdy Worf raz już czegoś doświadczy, nie ma powrotu... czy 

raczej nie ma żadnych odgałęzień. Samo doświadczenie wystarcza, aby ustalić 

rzeczywistość. Żąda tego natura mechaniki kwantowej.

Jest jeszcze inna cecha mechaniki kwantowej, o której była mowa w tym 

samym odcinku. Załoga Enterprise odkrywa, że Worf przybywa z innej 

„rzeczywistości kwantowej”, stwierdzając, iż jego „sygnatura kwantowa na poziomie 

atomowym” różni się od wszystkiego, co istnieje w ich świecie. Według Daty ta 

sygnatura jest niepowtarzalna i nie może ulec zmianie w wyniku żadnego procesu 

fizycznego. Mamy tu oczywiście do czynienia z technicznym pseudożargonem, wiąże 

się on jednak z pewną interesującą cechą mechaniki kwantowej. Pełny zbiór 

wszystkich możliwych stanów układu nazywamy przestrzenią Hilberta - od nazwiska 

Davida Hilberta, słynnego matematyka niemieckiego, który między innymi był bliski 

stworzenia przed Einsteinem ogólnej teorii względności. Zdarza się czasami, że 

przestrzeń Hilberta rozpada się na oddzielne obszary, zwane sektorami superwyboru. 

W takim przypadku żaden proces fizyczny nie może przenieść układu z jednego 

sektora do drugiego. Każdy sektor określony jest przez pewną wielkość - na przykład 

całkowity ładunek elektryczny układu. Gdybyśmy chcieli wyrazić się bardziej 

obrazowo, moglibyśmy powiedzieć, że wielkość ta nadaje temu sektorowi 

niepowtarzalną „sygnaturę kwantową”, ponieważ wszystkie lokalne operacje 

kwantowe zachowują ten sam sektor, a zachowanie operacji i mierzalnych wielkości, 

z którymi są związane, jest określone przez tę właśnie sygnaturę.

Różne odgałęzienia funkcji falowej układu muszą się jednak znajdować w 

jednym sektorze superwyboru, ponieważ każde z nich jest w zasadzie fizycznie 

dostępne. Niestety, w przypadku Worfa, nawet gdyby udało mu się złamać zasady 

mechaniki kwantowej, przeskakując z jednego odgałęzienia do drugiego, nie 

istniałaby żadna zewnętrzna mierzalna wielkość, która mogłaby dowieść 

prawdziwości jego relacji.

background image

Cały problem z interpretacją mechaniki kwantowej odwołującą się do idei 

wielu światów (czy z jakąkolwiek inną) sprowadza się do tego, że nigdy nie można 

doświadczać więcej niż jednej rzeczywistości jednocześnie. Na szczęście, także inne 

prawa fizyki nie pozwalają, by pojawiły się miliony statków Enterprise z różnych 

rzeczywistości, jak to się dzieje na końcu wspomnianego odcinka. Zapobiega temu 

chociażby prosta zasada zachowania energii - pojęcie najzupełniej klasyczne.

SOLITONY. W odcinku Nowa ziemia serii Następne pokolenie załoga 

Enterprise obserwuje eksperyment przeprowadzany przez drą Ja'Dora z planety 

Bilana III. W doświadczeniu tym używa się „fali solitonowej” - nie ulegającego 

rozproszeniu czoła fali odkształcenia podprzestrzennego - do przyspieszania 

prototypu statku do prędkości czasoprzestrzennych bez użycia napędu 

czasoprzestrzennego. Metoda ta wymaga, aby na końcu podróży znajdowała się 

planeta wytwarzająca pole, na którym rozproszy się fala. Eksperyment niemal kończy 

się tragedią, której oczywiście udaje się uniknąć w ostatniej chwili.

Solitony nie są wymysłem twórców Star Trek. Termin ten oznacza tyle, co 

„samotne fale”, i odnosi się do zjawiska zaobserwowanego po raz pierwszy w roku 

1834 na falach wodnych przez szkockiego inżyniera Johna Scotta Russella. 

Prowadząc własnym sumptem badania nad projektem barek rzecznych dla Union 

Canal Society w Edynburgu, zauważył on coś niezwykłego. Oto jego relacja:

Obserwowałem ruch barki, ciągniętej z dużą szybkością wzdłuż wąskiego 

kanału przez parę koni, gdy nagle barka się zatrzymała - cała zaś masa wody w 

kanale, wprawiona w ruch przez barkę, nie zatrzymała się, lecz zgromadziła w 

pobliżu dzioba barki w formie burzliwego kłębowiska, a potem nagle oddzieliła się i 

potoczyła bardzo prędko naprzód, przybierając postać samotnego wzniesienia. Był to 

zaokrąglony, gładki i zdecydowanie wyróżniający się pagórek na powierzchni wody, 

który poruszał się wzdłuż kanału pozornie bez zmiany kształtu i bez utraty prędkości. 

Podążyłem konno jego śladem i gdy go dogoniłem, wciąż przetaczał się naprzód z 

prędkością ośmiu lub dziewięciu mil na godzinę, zachowując swój pierwotny kształt, 

długi na trzydzieści stóp i na stopę lub półtorej wysoki. Jego wysokość powoli malała 

i po mili lub dwóch straciłem go z oczu wśród zakrętów kanału. W ten sposób w 

sierpniu 1834 roku miałem szczęście napotkać po raz pierwszy to osobliwe i piękne 

zjawisko, które nazwałem falą przesuniętą.

Później Scott Russell ukuł na określenie tego cudu termin „samotna fala”, 

który utrzymał się do dziś, choć solitony pojawiły się w wielu różnych działach 

background image

fizyki. Według ogólnej definicji, solitony są nie ulegającymi rozproszeniu, klasycznie 

rozciągłymi, ale skończonych rozmiarów obiektami, które mogą przemieszczać się z 

miejsca na miejsce. Z tego właśnie powodu nie mogły się wydarzyć katastrofy, które 

napędzają akcję odcinka Nowa ziemia. Po pierwsze, soliton nie „emitowałby dużej 

ilości zakłóceń radiowych”. Gdyby tak było, rozpraszałby swoją energię. Z tej samej 

przyczyny nie mógłby uzyskiwać energii czy zmieniać częstości.

Zwykłe fale są obiektami rozciągłymi, które podróżując tracą swoją energię. 

Jednak klasyczne siły - pochodzące z różnych oddziaływań w przestrzeni, zwanych 

polami - zazwyczaj pozostawiają solitony w stanie nietkniętym, tak że mogą się one 

rozchodzić, nie tracąc energii na rzecz ośrodka. Ponieważ są one kompletnymi 

rozwiązaniami energetycznymi równań opisujących ruch, zachowują się w zasadzie 

tak samo, jak zwyczajne obiekty - na przykład cząstki elementarne. W pewnych 

matematycznych modelach silnych oddziaływań, które utrzymują razem kwarki, 

można traktować proton jako soliton, a wówczas wszyscy składamy się z solitonów! 

W fizyce cząstek elementarnych wymyślono nowe pola, które mogłyby łączyć się w 

„gwiazdy solitonowe” - obiekty o rozmiarach gwiazd, istniejące dzięki jednemu 

spójnemu polu. Obiektów takich nie udało się jeszcze zaobserwować, ale ich istnienie 

jest prawdopodobne.

KWAZARY. W odcinku Pegaz - dowiadujemy się w nim o Traktacie 

Algońskim, który zakazuje Federacji używania urządzeń maskujących - mamy okazję 

zobaczyć Enterprise Picarda w trakcie badania kwazaru Mecoria. Wcześniej, w 

odcinku Galileusz siedem emitowanym w pierwszej serii, dowiedzieliśmy się, że 

regulamin obowiązujący na pokładzie Enterprise nakazywał badanie tych obiektów 

przy każdej nadarzającej się okazji. Jest jednak mało prawdopodobne, aby jakiś 

statek, podróżując po peryferiach Galaktyki, rzeczywiście napotkał kwazar. Sądzi się 

bowiem, iż kwazary - obiekty o największej we Wszechświecie energii (emitują one 

tyle energii, co całe galaktyki, choć są tak małe, że nie można ich dokładnie zbadać 

nawet za pomocą teleskopów) - są olbrzymimi czarnymi dziurami w centralnych 

częściach niektórych galaktyk i dosłownie połykają materię swoich gospodarzy. Jest 

to jedyny znany nam mechanizm, który mógłby wyjaśniać obserwowane energie i 

rozmiary kwazarów. Gdy materia wpada do czarnej dziury, wypromieniowuje dużą 

ilość energii (w miarę jak traci swoją grawitacyjną energię potencjalną). Jeśli w 

centralnych obszarach niektórych galaktyk istnieją czarne dziury o masach milion czy 

miliard razy większych od masy Słońca, mogą one połykać całe układy gwiezdne. Z 

background image

tego powodu kwazary są często częścią tego, co nazywamy aktywnymi jądrami 

galaktyk. Dla tej samej przyczyny odradzałbym bliskie spotkanie z jednym z takich 

obiektów, gdyż mogłoby się okazać fatalne w skutkach.

NEUTRINA. Neutrina są moimi ulubionymi cząstkami i dlatego ten temat 

zostawiłem sobie na koniec. Stworzonkom tym poświęciłem wiele lat mojej pracy 

naukowej, tak mało bowiem o nich wiemy, a przecież mogą wiele nas nauczyć o 

strukturze materii i naturze Wszechświata.

Wielokrotnie w różnych odcinkach Stor Trek używa się neutrin lub mierzy je 

na pokładach statków kosmicznych. Zwiększone odczyty neutrin występują na 

przykład wtedy, gdy statki przemierzają bajorański tunel czasoprzestrzenny. W 

odcinku Wróg dowiadujemy się, że maska Geordiego LaForge'a potrafi wykrywać 

neutrina, gdy dociera do niego ich wiązka, wysłana, żeby go zlokalizować; w ten 

sposób można go ewakuować z nieprzyjaznej planety. W odcinku Koncentracja sil 

załoga Enterprise napotyka „pole neutrinowe”, które zakłóca transport bezcielesnych, 

przestępczych form życia na pokład statku.

Istnienie neutrin przewidziano w wyniku niejasności związanej z procesem 

rozpadu neutronów. Neutrony są stabilne w jądrach atomowych, lecz w stanie nie 

związanym ulegają rozpadowi na protony i elektrony po mniej więcej dziesięciu 

minutach. Z zachowaniem ładunku elektrycznego w takich reakcjach nie ma 

problemu, ponieważ neutron jest elektrycznie obojętny, natomiast proton ma ładunek 

dodatni, a elektron -ujemny, przy czym ich wartość bezwzględna jest taka sama. 

Masa protonu i elektronu daje w sumie niemal masę neutronu, nie zostaje więc wiele 

energii na wytworzenie innych masywnych cząstek w tym rozpadzie.

Czasami jednak obserwuje się, że proton i elektron po rozpadzie neutronu 

wybiegają w tym samym kierunku. Jest to niemożliwe, ponieważ każda wyemitowana 

cząstka niesie pęd. Jeśli neutron znajdował się w spoczynku, jego pęd wynosił zero, 

konieczne jest więc w tym rozpadzie wyemitowanie czegoś jeszcze, aby cząstka taka 

mogła unieść pęd w kierunku przeciwnym.

Istnienie takiej hipotetycznej cząstki zaproponował w latach trzydziestych 

Wolfgang Pauli, a Enrico Fermi nazwał ją neutrinem (czyli małym neutronem). 

Wybrał tę nazwę dlatego, że cząstka Pauliego musiała być elektrycznie obojętna, aby 

nie została naruszona zasada zachowania ładunku, i mieć bardzo małą masę, aby 

mogła powstać nawet z niedużej ilości energii dostępnej po wyemitowaniu protonu i 

elektronu.

background image

Jako że neutrina są elektrycznie obojętne i nie odczuwają silnych oddziaływań 

(które wiążą kwarki i pomagają utrzymać jądro w całości), bardzo słabo oddziałują 

one ze zwykłą materią. Ponieważ jednak neutrina produkowane są w reakcjach 

jądrowych, które zachodzą we wnętrzu Słońca, są wszechobecne. W ciągu każdej 

sekundy każdego dnia każdy centymetr kwadratowy naszego ciała przeszywa sześćset 

miliardów neutrin pochodzących ze Słońca - ta nieustanna inwazja stała się nawet 

inspiracją wiersza Johna Updike'a. Nie zauważamy tego ostrzału, ponieważ neutrina 

przenikają przez nasze ciała bez śladu. Średnio neutrina słoneczne musiałyby przejść 

przez blok materii grubości 10 tysięcy lat świetlnych, zanim wywarłaby ona na nie 

jakikolwiek wpływ.

Jeśli rzeczywiście tak jest, można by zapytać, skąd możemy mieć pewność, że 

neutrina istnieją. Cóż, wspaniałą cechą mechaniki kwantowej jest to, że określa 

prawdopodobieństwa. Dlatego właśnie w poprzednim paragrafie użyłem określenia 

„średnio”. Chociaż większość neutrin przebędzie 10 tysięcy lat świetlnych, nie 

oddziałując z materią, jeśli będziemy mieć wystarczająco dużo neutrin i odpowiednio 

grubą tarczę, możemy się przekonać o ich istnieniu.

Tę zasadę wykorzystali po raz pierwszy w roku 1956 Frede-rick Reines i 

Clyde Cowan, którzy umieściwszy w pobliżu reaktora jądrowego kilkutonową tarczę, 

rzeczywiście zaobserwowali kilka zdarzeń, świadczących o istnieniu neutrina. To 

doświadczalne wykrycie neutrina (a właściwie antyneutrina) nastąpiło ponad 20 lat 

po wysunięciu hipotezy przez Pauliego i długo po tym, jak większość fizyków ją 

zaakceptowała.

Obecnie używa się o wiele większych detektorów. Pierwsze obserwacje 

neutrin słonecznych przeprowadził w latach sześćdziesiątych Ray Davis ze swoimi 

współpracownikami, używając prawie 400 tysięcy litrów płynu do czyszczenia, 

umieszczonego w podziemnym zbiorniku w kopalni złota Homestake w Południowej 

Dakocie. Średnio każdego dnia jedno neutrino pochodzące ze Słońca oddziaływało z 

jednym atomem chloru i zmieniało go w atom argonu. Eksperymentatorom należą się 

wyrazy uznania za to, że potrafili wykryć zachodzącą w tak wolnym tempie jądrową 

alchemię. Okazuje się jednak, że tempo reakcji zmierzone przez ich detektor - i 

wszystkie następne detektory neutrin słonecznych -jest odmienne od 

przewidywanego. Ta tak zwana zagadka neutrin słonecznych może sygnalizować 

potrzebę stworzenia nowej fizyki neutrin.

Największy detektor neutrin na świecie buduje się obecnie w kopalni 

background image

Kamiokande w Japonii. Będzie on zawierał 30 tysięcy ton wody i zastąpi detektor 

wykorzystujący 5 tysięcy ton, za pomocą którego udało się zarejestrować pewną ilość 

neutrin pochodzących z supernowej. Wybuch ten zaobserwowano w 1987 roku w 

Wielkim Obłoku Magellana, który znajduje się ponad 150 tysięcy lat świetlnych od 

nas!

W ten sposób wracamy do punktu wyjścia. Neutrina są jednym z nowych 

narzędzi, używanych przez fizyków do badania Wszechświata. Wykorzystując każdy 

możliwy rodzaj detekcji cząstki elementarnej oraz konwencjonalne detektory 

elektromagnetyczne, możemy odkryć tajemnice Galaktyki, zanim odważymy się 

wyruszyć na jej podbój. Wynalezienie detektora neutrin wielkości maski Geordiego 

byłoby w tym oczywiście bardzo pomocne!

background image

ROZDZIAŁ  10

KRAINA NIEMOŻLIWOŚCI: TO, CZEGO NIE DA SIĘ 

ODKRYĆ

Geordi: Nagle prawa fizyki jakby wyskoczyły f rzeź okno.

Q: Dlaczego nie miałyby tego zrobić? Są takie niewygodne!

W odcinku Prawdziwy Q 

Bones, cha żebyś sprawdził także to, co niemożliwe.

KIRK do McCoya w odcinku Nagi czas 

To, co opisujesz, to... niebyt!

KIRK do Spocka w odcinku Czynnik alternatywny

Każdy rozsądny flzyktrekker zdaje sobie sprawę z tego, że Star Trek należy 

traktować z pewną dozą pobłażliwości. Zdarzały się jednak przypadki, gdy z takiego 

lub innego powodu twórcy Stor Trek przekraczali granicę między tym, co jest po 

prostu niejasne lub mało prawdopodobne, a tym, co zupełnie niemożliwe. 

Wynajdywanie w każdym odcinku niewielkich nawet uchybień jest popularną 

rozrywką trekkerów, nie tym jednak najbardziej rozkoszują się fizycy i studenci 

fizyki. W czasie obiadów i przerw na kawę podczas zawodowych spotkań dyskutuje 

się najczęściej o naprawdę poważnych wpadkach.

Trzeba jednak przyznać, że zdarza, się, iż okruch fizyki w serialu - nawet jeśli 

dotyczy niewielkiego epizodu - potrafi następnego dnia wywołać żarliwą dyskusję. 

Dobrze pamiętam dzień, kiedy mój student z Yale - Martin White, który obecnie 

pracuje na Uniwersytecie w Chicago - przyszedł do mojego pokoju zaraz po 

obejrzeniu Stor Trek VI: Nieznany kraj. Myślałem, że będziemy rozmawiać o fałach 

grawitacyjnych w bardzo młodym Wszechświecie. Martin zaczał się jednak 

zachwycać pewną szczególną sceną z filmu, która nie trwała dłużej niż 15 sekund. 

Dwóch ubranych w hełmy zabójców wchodzi na pokład statku kanclerza Gorkona - 

statek został unieruchomiony za pomocą torped fotonowych, wystrzelonych z 

Enterprise, i dzięki temu nie ma na nim grawitacji - i strzela do wszystkich 

znajdujących się w zasięgu wzroku, łącznie z Gorkonem. Szczególne wrażenie na 

Martmie i, ku mojemu zaskoczeniu, na wielu innych studentach fizyki oraz 

pracownikach wydziału wywarto to, że krążące po statku krople krwi miały sferyczne 

kształty. Na Ziemi wszystkie krople cieczy są wydłużone z powodu wszechobecnej 

background image

siły grawitacji. W obszarach jej pozbawionych, takich jak statek Gorkona, nawet łzy 

byłyby małymi kulkami. Fizycy wiedzą o tym, ale rzadko mają okazję to zobaczyć. 

Pracujący nad Star Trek fachowcy od efektów specjalnych dostarczyli wielu fizykom 

sporej przyjemności. Wystarczy tak niewiele...

Oczywiście błędy również nas poruszają. Co ciekawe, najbardziej chyba 

pamiętny błąd w Star Trek nie dotyczył wcale fizyki. Doniósł mi o nim Steven 

Weinberg, fizyk cząstek elementarnych (a także autor książek popularnonaukowych) i 

laureat Nagrody Nobla, którą otrzymał za udział w stworzeniu tego, co obecnie 

nazywamy modelem standardowym oddziaływań cząstek elementarnych. Ponieważ 

wiedziałem, że wykonuje on najbardziej zawiłe obliczenia przy włączonym 

telewizorze, napisałem do niego i zapytałem o refleksje związane ze Star Trek. 

Weinberg odpowiedział, że głównymi błędami popełnianymi w Stor Trek są błędy 

językowe.

Znacznie częściej jednak uwagę fizyków przykuwają błędy z dziedziny, którą 

uprawiają. Dzieje się tak zapewne dlatego, że te właśnie błędy utwierdzają w wielu 

fizykach przekonanie, iż fizyka jest bardzo oddalona od kultury masowej; nie mówiąc 

o poczuciu wyższości, które dają nam żarty na temat absolwentów filologii piszących 

scenariusz. Trudno sobie wyobrazić, aby w dużej produkcji filmowej Napoleon 

mówił po niemiecku, zamiast po francusku, a Deklaracja Niepodległości została 

podpisana w XIX wieku. Kiedy więc podobnego kalibru błędy fizyczne wkradają się 

do serialu, który ma przecież mieć charakter naukowy, fizycy przechodzą do ataku. 

Byłem zaskoczony, gdy się dowiedziałem, jak wielu moich szacownych kolegów - 

Kip Thome, Weinberg, Sheldon Glashow, nie mówiąc o Stephenie Hawkingu, 

najbardziej chyba znanym fizyku-trekkerze - ogląda serial Star Trek. Oto lista moich 

ulubionych pomyłek, zebranych w trakcie dyskusji z fizykami oraz przesłanych do 

mnie pocztą elektroniczną przez licznych trekkerów. Starałem się skupić głównie (ale 

nie wyłącznie) na gafach dotyczących „ziemskiej fizyki”. Nie zajmuję się więc tutaj 

takimi częstymi zarzutami, jak ten, że światło gwiazd się rozmazuje, gdy mamy do 

czynienia z prędkościami czasoprzestrzennymi. Nie walczę też z technicznym 

pseudożargonem - nieodpowiedzialnym użyciem terminologii naukowej i 

pseudonaukowej, jaką posługują się w każdym odcinku scenarzyści, aby stworzyć 

wrażenie technologii przyszłości. Poza tym starałem się wybrać przykłady, o których 

nie było wcześniej mowy.

„W PRZESTRZENI KOSMICZNEJ NIKT NIE USŁYSZY TWOJEGO 

background image

KRZYKU”. Zwiastun Obcego ujął to trafnie, ale w serialu Star Trek zwykle popełnia 

się w tej kwestii błędy. Fale dźwiękowe nie rozchodzą się w pustej przestrzeni! Gdy 

jednak wybucha stacja kosmiczna krążąca wokół planety Tanuga IV, z dogodnego 

punktu obserwacyjnego na pokładzie Enterprise słyszymy to wydarzenie tak samo 

dobrze, jak widzimy. Co gorsza, słyszymy je w tej samej chwili, w której je widzimy. 

Nawet gdyby fale dźwiękowe mogły rozchodzić się w pustej przestrzeni, co jest 

niemożliwe, prędkość fali ciśnienia, takiej jak dźwięk, jest na ogół o kilka rzędów 

wielkości mniejsza od prędkości światła. Wystarczy wybrać się na mecz piłki nożnej, 

aby się przekonać, że widzimy zdarzenia, zanim możemy je usłyszeć.

Poglądowy eksperyment, który przeprowadza się na szkolnych lekcjach 

fizyki, polega na umieszczeniu elektrycznego dzwonka pod szklanym kloszem i 

wypompowaniu spod niego powietrza. Gdy powietrze zostanie usunięte, dzwonienie 

zanika. Już w XVII wieku uświadomiono sobie, że dźwięk potrzebuje jakiegoś 

ośrodka, aby się rozchodzić. W próżni, takiej jaka panuje wewnątrz klosza, nie ma 

nic, co mogłoby przenosić fale dźwiękowe, więc nie słyszymy znajdującego się w 

środku dzwonka. Mówiąc dokładniej, dźwięk jest falą ciśnienia, czyli zaburzeniem, 

które przemieszcza się w miarę jak obszary ciśnienia wyższego lub niższego niż 

średnie rozchodzą się w ośrodku. Gdy wyeliminujemy ośrodek, nie będzie ciśnienia, 

które można by zaburzać. Nawiasem mówiąc, przykład z kloszem leżał u podstaw 

tajemnicy, o której wcześniej wspomniałem, a która miała duże znaczenie w historii 

fizyki. Chociaż nie słyszymy dzwonka, wciąż go widzimy! Jeśli więc światło ma być 

rodzajem fali, w jakim to ośrodku, którego nie można usunąć wraz z powietrzem, się 

ono porusza? Był to jeden z głównych argumentów przemawiających za istnieniem 

eteru.

Oglądając serial, nigdy nie zwracałem większej uwagi na obecność bądź 

nieobecność dźwięku w przestrzeni kosmicznej. Po tym jednak, jak Steven Weinberg 

i kilka innych osób wspomniało, że pamiętają dźwięk towarzyszący wybuchom w 

Star Trek, zwróciłem na to uwagę przy okazji oglądanego właśnie odcinka pod 

tytułem Kwestia perspektywy, w którym wybucha stacja kosmiczna krążąca wokół 

planety Tanuga IV. I oczywiście: bum! To samo zdarzyło się w następnym odcinku - 

statek przewożący skradzione z Enterprise kryształy trójlitu z wielkim hukiem 

eksplodował w pobliżu planety Arkaria. Potem obejrzałem ostatni pełnometrażowy 

film Star Trek: Pokolenia, w którym nawet butelka szampana wydaje odgłos, gdy 

eksploduje w przestrzeni kosmicznej.

background image

Mark Srednicki, mój kolega fizyk z Uniwersytetu Kalifornijskiego w Santa 

Barbara, zwrócił uwagę na o wiele poważniejszą pomyłkę w pewnym odcinku, w 

którym fale dźwiękowe wykorzystuje się jako broń przeciwko statkowi znajdującemu 

się na orbicie. Jakby tego było mało, słyszymy, że fale te osiągają liczbę decybeli 

równą „18 do potęgi dwunastej”. Fizykowi wielkość ta wydaje się szczególnie duża, 

ponieważ skala, w której natężenie mierzy się w decybelach, jest logarytmiczna, 

podobnie jak skala Richtera. Oznacza to, że liczba decybeli to już potęga 10, a 

wartości znormalizowane są w ten sposób, że 20 decybeli jest 10 razy głośniejsze od 

10 decybeli, a 30 decybeli jeszcze 10 razy głośniejsze. Zatem 18 do potęgi dwunastej 

decybeli to 10

1812

, czyli l z 11 568 313 814 300 zerami razy głośniej niż samolot 

odrzutowy!

SZYBCIEJ NIŻ FAZER. Do podróży z prędkościami ponad-świetlnymi 

musimy się w Star Trek przyzwyczaić; ta możliwość, jak już mówiłem, wiąże się z 

subtelnościami ogólnej teorii względności i istnieniem egzotycznych, nowych form 

materii. Dla zwyczajnych obiektów w zwyczajnych sytuacjach prędkość światła jest i 

zawsze będzie nieprzekraczalną barierą. Czasami zapomina się o tym prostym fakcie. 

W zwariowanym odcinku pod tytułem Mgnienie oka Skalozjanie podstępnie skłaniają 

Kirka do wypicia napoju, który przyspiesza wielokrotnie jego ruchy. Dzięki temu 

osiąga on szybkość ruchów Ska-lozjan i może stać się partnerem ich królowej Deeli. 

Skalozjanie wiodą superszybkie życie, w związku z czym załoga Enterprise nie 

potrafi ich dostrzec. Zanim jednak Kirk znajdzie się w łożu królowej, próbuje 

zastrzelić ją z fazera. Ponieważ królowa potrafi przemieszczać się w mgnieniu oka, 

przynajmniej z punktu widzenia ludzi, uchyla się z drogi promienia, zanim ten w nią 

trafi. Co mija się z prawdą w tej historii? Odpowiedź brzmi: wszystko!

Kilku trekkerów zauważyło, że jeśli Deela może się poruszyć w czasie, który 

wystarcza, by promień fazera przebiegł pokój z prędkością światła, cała reszta tego 

odcinka jest niemożliwa. Prędkość światła wynosi 300 milionów metrów na sekundę. 

Deela znajduje się w odległości około metra od strzelającego Kirka, z czego wynika, 

że światło będzie podróżowało przez około 1/300 milionowej sekundy. Aby ten czas 

wydał się Deeli sekundą, zegar Skalozjan musi odmierzać czas 300 milionów razy 

szybciej. Jeśli tak jest, trzysta milionów sekund dla Skalozjan trwa około jednej 

sekundy zwykłego czasu Enterprise. Niestety, trzysta milionów sekund to około 10 

lat.

Wybaczmy twórcom Star Trek ten lapsus. Pojawia się jednak o wiele 

background image

poważniejszy problem, którego nie można rozwiązać i na który natknęło się kilku 

znanych fizyków. Z serialu dowiadujemy się, że fazery są bronią mogącą wysyłać 

ukierunkowaną energię; wiązka fazera zatem przemieszcza się z prędkością światła. 

Niestety, w tym miejscu tkwi pułapka. Jeśli promień fazera składa się z czystej 

energii, a nie z cząstek, jak twierdzi Instrukcja techniczna Star Trek, musi biec z 

prędkością światła. Niezależnie od tego, jak szybko może się ktoś poruszać, nawet 

jeśli robi to 300 milionów razy szybciej niż zwykły człowiek, nigdy nie zdąży się 

usunąć z drogi promienia fazera. Dlaczego? Ponieważ aby się dowiedzieć, że zbliża 

się do niego wiązka, musiałby najpierw zobaczyć wystrzał fazera. Potrzebne do tego 

światło porusza się jednak z tą samą prędkością, co wiązka. Innymi słowy, nie 

możesz się dowiedzieć, że wiązka zmierza w Twoim kierunku, dopóki w Ciebie nie 

trafi! Dopóki wiązka fazera jest wiązką energii, nie ma przed nią ucieczki. Podobny 

problem związany z próbą uniknięcia promienia fazera pojawia się w odcinku 

Bakteriofagi z serii Yoyager.

Czasami to jednak krytycy Stor Trek popełniają błędy. Powiedziano mi 

kiedyś, że powinienem zwrócić uwagę na scenę w filmie Pokolenia, kiedy gwiazda 

oświetlająca planetę znika i w tym samym momencie planeta ciemnieje. Jest to 

oczywiście niemożliwe, ponieważ światło potrzebuje pewnego skończonego czasu, 

aby przebyć drogę od gwiazdy do planety. Jeśli zatem wyłączymy światło gwiazdy, 

obserwatorzy na planecie przez pewien czas nie będą o tym wiedzieli. W filmie 

Pokolenia jednak cały ten proces obserwuje się z powierzchni planety. Z tego punktu 

widzenia powierzchnia planety powinna pociemnieć w tej samej chwili, w której 

gwiazda się zapada. Wynika to stąd, że zarówno informacja o tym, że gwiazda się 

zapadła, jak i informacja o braku światła dotrą do planety w tym samym czasie: 

spóźnione, ale równoczesne! Chociaż ten aspekt zagadnienia został ukazany 

poprawnie, scenarzyści popełnili błąd, skracając bardzo czas opóźnienia. 

Dowiadujemy się, że sonda mająca zniszczyć gwiazdę dotrze do niej w ciągu 11 

sekund od wystrzelenia z powierzchni planety. Sonda porusza się z prędkością 

podświetlną; możemy być tego pewni, ponieważ do czasu, gdy mieszkańcy planety 

ujrzą zapadającą się gwiazdę, upływa znacznie mniej niż 2 razy po 11 sekund, co 

oznacza, że podróż powrotna światła musiała trwać o wiele krócej niż 11 sekund. Dla 

porównania, Ziemia znajduje się w odległości 8 minut świetlnych do Słońca. Gdyby 

Słońce eksplodowało w tej chwili, dowiedzielibyśmy się o tym dopiero za 8 minut. 

Trudno uwierzyć, żeby planeta klasy M mogła istnieć w odległości 10 sekund 

background image

świetlnych od spalającej wodór gwiazdy, takiej jak Słońce. Jest to odległość tylko 

pięciokrotnie większa od rozmiarów Słońca - o wiele za blisko, by można było tam 

wygodnie żyć.

TO SCENARIUSZ TRZESZCZY, A NIE HORYZONT ZDARZEŃ. Chociaż 

obiecałem, że nie będę się zajmował technicznym pseudożargonem, nie mogę nie 

wspomnieć, że seria Voyager jest pod tym względem bezkonkurencyjna. Gdy 

Voyager próbuje dotrzeć do domu, podróżując w czasie z regularnością metra w 

godzinach szczytu, można usłyszeć każde żargonowe wyrażenie znane współczesnej 

fizyce. Terminy fizyczne zwykle jednak coś znaczą, więc gdy używa się ich tylko po 

to, by pchnąć akcję do przodu, błędy są nieuniknione. W rozdziale trzecim 

wspomniałem, że odgłos towarzyszący wyrwaniu się z horyzontu zdarzeń - ratuje to 

Voyagera w nieudanym odcinku Bakteriofagi - brzmi dla fizyków szczególnie 

niedorzecznie. „Trzask” horyzontu zdarzeń jest mniej więcej tak samo 

prawdopodobny, jak odcięcie jednego końca koła lub bycie trochę w ciąży. Horyzont 

zdarzeń wokół czarnej dziury nie jest obiektem fizycznym, lecz miejscem 

określającym obszar, w którym wszystkie tory obiektów pozostają wewnątrz czarnej 

dziury. To, że trajektoria jakiejkolwiek cząstki, ze światłem włącznie, ulega 

zakrzywieniu w kierunku czarnej dziury, gdy znajdzie się wewnątrz obszaru o 

pewnym promieniu, jest własnością zakrzywionej przestrzeni. Albo horyzont zdarzeń 

istnieje - a wtedy istnieje także czarna dziura - albo nie. Nie istnieje obszar pośredni, 

przez który mogłaby się prześlizgnąć igła, nie mówiąc o Voyagerze.

CZY MOŻNA DOTKNĄĆ DOKTORA? Muszę przyznać, że moim 

ulubionym technicznym błędem w serii Voyager jest holograficzny doktor. W trakcie 

pewnej wspaniałej sceny pacjent pyta doktora, w jaki sposób może on go dotykać, 

skoro jest tylko hologramem. Dobre pytanie. W odpowiedzi doktor wyłącza „wiązkę 

magnetycznie wiążącą”, aby pokazać, że bez niej jest równie bezcielesny jak 

fatamorgana. Później rozkazuje, aby ponownie włączono wiązkę, gdyż musi 

dokończyć badanie pacjenta. Jest to wspaniały epizod, ale, niestety, 

nieprawdopodobny. Jak pisałem w rozdziale szóstym, magnetyczne wiązanie czyni 

cuda w przypadku naładowanych cząstek, na które w stałym polu magnetycznym 

działa siła zmuszająca je do ruchu po orbitach kołowych. Światło nie ma jednak 

ładunku elektrycznego. W polu magnetycznym nie działa na nie żadna siła. 

Hologram, a zatem i doktor, jest jedynie obrazem świetlnym.

CO JEST BARDZIEJ WRAŻLIWE: TWOJE RĘCE CZY TYŁEK? ALBO: 

background image

ZMIENIAĆ CZY NIE ZMIENIAĆ FAZY? Twórcom Star Trek udało się popełnić 

kiedyś coś, co nazywam haniebnym błędem ducha. Mam na myśli nakręcony 

niedawno film pod tytułem Uwierz w ducha, w którym główny bohater, duch, 

przechodzi przez ściany i nie potrafi podnosić przedmiotów, ponieważ jego ręce 

przenikają przez nie. Kiedy jednak siada na krześle lub kanapie, w cudowny sposób 

jego pośladki znajdują wygodne oparcie. Podobnie ziemia pod jego stopami pozostaje 

całkiem twarda. W poprzednim rozdziale wspominałem, że w jednym z odcinków 

Geordi LaForge i Ro Laren byli „niezgodni w fazie” ze zwykłą materią dzięki 

romulanskiemu „generatorowi interfazy”. Ku swojemu zaskoczeniu odkrywają, że są 

niewidzialni ł mogą przechodzić przez ludzi i ściany. Ro zaczyna wierzyć, że umarła 

(może w młodości widziała w jakimś starym kinie powtórkę Uwierz w ciucha). 

Geordi i Ro mogą jednak bezkarnie stać na podłodze i siedzieć na krzesłach. Materia 

jest materią, a krzesła i podłogi niczym się nie różnią od ścian i, o ile wiem, stopy ł 

pośladki nie są bardziej ani mniej cielesne niż ręce.

Nawiasem mówiąc, w tym samym odcinku był jeszcze jeden słaby punkt, 

który łamie spójność wielu innych wydarzeń w serialu. W fizyce dwa przedmioty, 

które oddziałują z czymś trzecim, zawsze mogą oddziaływać ze sobą. Prowadzi nas to 

z powrotem do pierwszego prawa Newtona. Jeśli wywieram na Ciebie siłę, Ty 

działasz na mnie z siłą równą co do wartości i przeciwnie skierowaną. Jeśli zatem 

Geordi i Ro mogli obserwować Enterprise ze swojej nowej „fazy”, musieli 

oddziaływać ze światłem falą elektromagnetyczną. Wystarczy posłużyć się prawem 

Newtona, aby stwierdzić, że oni również powinni być widoczni. Szkło pozostaje 

niewidoczne, ponieważ nie pochłania

widzialnego światła. Aby widzieć - to znaczy odczuwać światło -musisz je 

pochłaniać. Pochłaniając je, wywierasz na nie wpływ. A skoro tak, musisz być 

widoczny dla kogoś innego. Tak samo dzieje się w przypadku niewidzialnych 

owadów z innej fazy, które zaatakowały Enterprise, przyczepiając się do ciał załogi w 

odcinku Urojenia serii Następne pokolenie. Siła, która pozwala im spoczywać na 

zwyczajnej materii, nie przechodząc przez nią, to właśnie elektromagnetyzm - 

elektrostatyczne odpychanie między naładowanymi cząstkami wchodzącymi w skład 

atomów jednego i drugiego ciała. Jeśli oddziałujesz elektromagnetycznie, jesteś 

częścią naszego świata. Coś za coś.

WYLEWANIE DZIECKA Z KĄPIELĄ. W odcinku Kopalnia serii Następne 

pokolenie statek Enterprise dokuje w Ciągu Remmleranskim, aby poddać się 

background image

„usuwaniu barionów”. Wygląda na to, że te cząstki osadzają się na konstrukcjach 

statku w wyniku długotrwałej podróży z prędkościami czasoprzestrzennymi i muszą 

zostać usunięte. Podczas tego „odkurzania” załoga musi się ewakuować, ponieważ 

wiązka oczyszczająca jest zabójcza dla żywej tkanki. Nie da się jednak ukryć, że 

jedynymi stabilnymi barionami są protony i neutrony, tworzące jądra atomowe. 

Ponieważ wszystko, co widzimy, składa się z tych cząstek, po usunięciu ich z 

Enterprise nie zostałoby ze statku zbyt wiele na następne odcinki.

JAK ZIMNE MOŻE BYĆ ZIMNO? Ulubiona gafa mojego kolegi i 

wielbiciela Star Trek, Chucka Rosenblatta, to ochładzanie przedmiotów do 

temperatury -295°C. Jest to bardzo ekscytujące odkrycie, ponieważ w skali Celsjusza 

absolutnemu zeru odpowiada -273°. Jak wynika z samej nazwy, zero absolutne to 

najniższa temperatura, jaką może osiągnąć ciało, gdyż w tej temperaturze ustają 

wszelkie ruchy cząsteczkowe i atomowe, drgania i obroty. Chociaż osiągnięcie tej 

teoretycznej granicy jest niemożliwe, układy atomowe udało się schłodzić do 

temperatury nie większej niż jedna milionowa stopnia powyżej zera absolutnego 

(ostatnio osiągnięto nawet temperaturę dwóch miliardowych stopnia). Temperatura 

związana jest z ruchami cząsteczek i atomów, a nigdy nie można mieć mniej niż zero 

ruchu. A zatem nawet za 400 lat absolutne zero ciągle będzie absolutne.

WIDZIAŁEM ŚWIATŁO! Czuję się nieco zakłopotany, gdyż muszę 

przyznać, że na ten oczywisty błąd, który sam powinienem był zauważyć, zwrócił mi 

uwagę student pierwszego roku fizyki, Ryan Smith, gdy podczas wykładu 

wspomniałem, iż piszę tę książkę. Za każdym razem, gdy Enterprise wysyła promień 

fazera, widzimy go. Oczywiście jest to niemożliwe, jeśli fazer nie emituje światła we 

wszystkich kierunkach. Światło widoczne jest dopiero wtedy, gdy się od czegoś 

odbije. Każdy, kto kiedykolwiek uczestniczył w pokazie, na którym prelegent 

posługiwał się wskaźnikiem laserowym - zazwyczaj są to czerwone lasery helowo-

neonowe - pamięta zapewne, że widoczna jest tylko plamka w miejscu, gdzie promień 

pada na ekran, nie widać natomiast nic pomiędzy wskaźnikiem a ekranem. Cały 

promień można dostrzec tylko wówczas, gdy w pomieszczeniu rozpyli się kurz, na 

przykład uderzając o siebie dwie suche gąbki do wycierania tablicy. (Warto tego 

spróbować - widok jest rzeczywiście niezwykły). Podczas widowisk laserowych 

światło przepuszcza się przez dym lub wodę. Jeśli zatem pusta przestrzeń nie jest 

szczególnie zapylona, nie powinniśmy zobaczyć promienia fazera aż do momentu, 

gdy dotrze on do celu.

background image

ASTRONOMOWIE SĄ WYBREDNI. Nie powinno nas dziwić, że wielu 

ludzi znajduje w serialu błędy fizyczne związane z ich własnym obszarem 

zainteresowań. Gdy pytałem różne osoby o przykłady, po odpowiedziach można było 

odgadnąć, czym się zajmują. Za pomocą poczty elektronicznej otrzymałem kilka 

sugestii od astronomów-trekkerów, którzy zauważyli niektóre subtelne błędy w Stor 

Trek. Pewien student astronomii wykazał, że mimo dużego wysiłku scenarzystów, by 

wykorzystać nieco prawdziwej astronomii, rezultat rozminął się z prawdą. Żywiąca 

się energią forma życia w odcinku Dziecko galaktyki okazuje się młodą istotą, która 

bierze Enterprise za swoją matkę i zaczyna wysysać jego energię. LaForge w samą 

porę wpada na pomysł, w jaki sposób pozbyć się „dziecka”. Reaguje ono na 

promieniowanie o długości fali 21 centymetrów, emitowane przez Enterprise. 

Zmieniając częstość emisji, załoga psuje „mleko” i „dziecko” daje za wygraną. 

Odcinek ten jest interesujący, choć zawiera błąd. Scenarzyści chcieli wykorzystać to, 

że promieniowanie o długości 21 centymetrów jest najpowszechniejszym 

promieniowaniem emitowanym przez wodór; astronomowie posługują się nim do 

stworzenia map występowania gazu międzygwiazdowego (wspomniałem o tym w 

rozdziale ósmym). Scenarzyści przyjęli jednak, że wszystko, łącznie z Enterprise, 

emituje takie promieniowanie. Tymczasem przejście atomowe w wodorze, 

odpowiedzialne za to promieniowanie, jest niezwykle rzadkie: konkretny atom w 

przestrzeni międzygwiazdowej może wysłać falę o takiej długości średnio tylko raz 

na 400 lat. Ponieważ jednak Wszechświat jest wypełniony wodorem, promieniowanie 

to jest wystarczająco silne, aby można je było wykryć na Ziemi. W tym przypadku 

oceniłbym więc wysiłki scenarzystów na 6 i obniżył tę ocenę na 5+ za złą 

interpretację; uchodzę jednak za pobłażliwego egzaminatora.

Pewien pracownik NASA zwrócił mi uwagę na błąd, którego sam nie 

zauważyłem, a który ktoś pracujący dla NASA powinien wychwycić. Standardowym 

sposobem poruszania się statków kosmicznych jest okrążanie planet po orbitach 

geostacjonarnych - okres orbitalny statku jest wtedy taki sam jak okres obrotu planety 

wokół osi. Statek powinien się więc znajdować cały czas nad tym samym miejscem 

na powierzchni planety, jak w przypadku satelitów meteorologicznych, krążących 

wokół Ziemi. Gdy jednak Enterprise obiega planetę, zazwyczaj pokazane jest, że 

porusza się na tle jej powierzchni. A jeśli nie znajduje się on na orbicie 

geostacjonarnej, pojawiają się poważne problemy z przesyłaniem za pomocą 

transportera.

background image

TE PRZEKLĘTE NEUTRINA. Muszę chyba jeszcze raz powrócić do neutrin. 

Ponieważ niewiele dotąd pisałem o serii Stacja kosmiczna, wspomnę przynajmniej o 

błędzie, o którym powiedział mi David Brahm, jeszcze jeden fizyk-trekker. W 

jednym z odcinków Quark dysponuje urządzeniem, które w swoim otoczeniu zmienia 

prawa prawdopodobieństwa. Można sobie wyobrazić, jak użyteczne byłoby ono przy 

jego stołach do gry, dając mu przewagę; tej pokusie jako Fereng nie mógłby się 

oprzeć. Podstęp odkrywa jednak Dax, która przypadkowo analizuje strumień neutrin 

przepływający przez stację. Ku swojemu zaskoczeniu zauważa ona, że wszystkie 

neutrina są lewo-skrętne - to znaczy wszystkie obracają się w jednym kierunku 

względem swojego ruchu. Coś musi być nie w porządku! Wygląda na to, że brakuje 

neutrin obracających się w przeciwnym kierunku!

Niestety, ze wszystkich zjawisk, jakimi mogli posłużyć się scenarzyści Star 

Trek, aby zdemaskować oszustwa Quarka, wybrali wariant, który jest zawsze 

prawdziwy. O ile nam wiadomo, neutrina są tylko lewoskrętne! To jedyne znane nam 

cząstki w przyrodzie, które mogą istnieć tylko w jednym stanie spinu. A zatem na 

podstawie wyników swej analizy Dax miałaby wszelkie powody, aby wierzyć, że 

wszystko jest w porządku.

Przykład ten jest bardzo przewrotny, przynajmniej dla mnie, z tego samego 

powodu, dla którego fizyka świata Star Trek jest tak ciekawa: czasem prawda jest 

dziwniejsza od fikcji.

background image

EPILOG

I to by było wszystko, jeśli chodzi o błędy i fizykę. Jeżeli nie wymieniłem 

Twojego ulubionego błędu w serialu lub nie nawiązałem do Twojej ulubionej 

dziedziny fizyki, możesz przesłać swe uwagi memu wydawcy. Jeśli uzbiera się ich 

wystarczająco dużo, pomyślimy, podobnie jak w przypadku serialu Stor Trek, o 

dalszym ciągu. Mam już nawet tytuł: Fizyka podróży międzygwiezdnych II: Gniew 

Kraussa.

Zakończenie książki rozdziałem na temat naukowych nieścisłości w serialu 

nie miało na celu przesadnego karcenia twórców Stor Trek. Chciałem raczej pokazać, 

że podczas oglądania serialu można się dobrze bawić na wiele sposobów. Jestem 

pewien, że dopóki emitowany będzie serial Star Trek, coraz to nowe fizyczne fawc 

pas będą dostarczać wszystkim trekkerom - od uczniów szkół średnich do profesorów 

uniwersytetu - tematów do rozmów. A dla scenarzystów i producentów wyzwaniem 

będzie nadążanie za wciąż poszerzającym swe horyzonty światem fizyki.

Zakończę tę książkę tam, gdzie ją zacząłem: mówiąc nie o błędach, lecz o 

możliwościach. Naszą kulturę ukształtowały cuda współczesnej fizyki - do 

współczesnych zaliczam tutaj Galileusza i Newtona - na równi z każdym innym 

wysiłkiem intelektualnym ludzkości. Obecnie tak się nieszczęśliwie składa, że nauka 

uważana jest niesłusznie za coś odrębnego od kultury, lecz w rzeczywistości jest ona 

żywą częścią składową naszej cywilizacji. Wyniki badań nad Wszechświatem to 

najbardziej godne uwagi odkrycia ludzkiego intelektu i szkoda, że

nie dzieli ich z nami publiczność tak szeroka, jak w przypadku dzieł wielkiej 

literatury, malarstwa czy muzyki.

Podkreślając potencjalną rolę nauki w rozwoju rodzaju ludzkiego, Star Trek w 

zabawny sposób ukazuje silny związek między nauką i kulturą. Kilkakrotnie 

wyrażałem opinię, że nauka XXIII stulecia w bardzo małym stopniu ma szansę 

przypominać wytwory wyobraźni scenarzystów Star Trek; przypuszczam, że może 

okazać się jeszcze wspanialsza. W każdym razie jestem przekonany, że fizyka dnia 

dzisiejszego i jutra z pewnością określi charakter naszej przyszłości, podobnie jak 

fizyka Newtona i Galileusza ubarwia nasze istnienie w chwili obecnej. Zostałem 

naukowcem po części dlatego, że wierzyłem, iż nasz gatunek obdarzony jest 

potencjałem, który jeszcze przez długi czas będzie umożliwiał odkrywanie cudów 

Wszechświata. Podobny duch ożywia serial Stor Trek. Niech ostatnie słowo należy 

background image

do Gene'a Roddenberry'ego. Przy okazji dwudziestopięciole-cia serialu Star Trek, na 

rok przed swoją śmiercią, powiedział on: „Człowiek jest niezwykłym stworzeniem o 

olbrzymim potencjale i mam nadzieję, że Star Trek pomógł nam uświadomić sobie, 

jacy możemy być, jeśli będziemy wierzyć w siebie i w swoje możliwości”.

background image

PODZIĘKOWANIA

Pozostaję dłużnikiem wielu osób, które przyczyniły się do powstania tej 

książki. Jestem wdzięczny kolegom fizykom, którzy niezawodnie odpowiadali na 

prośby o pomoc. W szczególności dziękuję Stephenowi Hawkingowi za 

natychmiastową zgodę na napisanie przedmowy oraz Stevenowi Wein-bergowi, 

Sheldonowi Glashowowi i Kipowi Thorne'owi za podzielenie się ze mną swoimi 

przemyśleniami na temat serialu Star Trek. John Peoples, dyrektor Narodowego 

Laboratorium Akceleratorowego im. Enrico Fermiego, umożliwił mi opisanie 

sposobu produkcji i przechowywania antymaterii w Fermila-bie. Szczególnie 

dziękuję Judy Jackson z administracji Fermi-labu za pomoc i zdjęcia oraz mojemu 

koledze z Case Western Reserve University, Cyrusowi Taylorowi, który obecnie 

pracuje w Fermilabie, za udzielenie odpowiedzi na różne pytania natury technicznej. 

Paul Horowitz z Uniwersytetu Harvarda odpowiedział na moją prośbę o informacje 

na temat programów SETI oraz META, które prowadził; otworzył przede mną 

prawdziwą skarbnicę wiadomości na temat poszukiwań cywilizacji pozaziemskich 

oraz dostarczył zdjęcia ilustrujące te badania. George'owi Smootowi zawdzięczam 

wspaniałe zdjęcie naszej Galaktyki, wykonane przez COBE, a Philipowi Taylorowi 

źródło cytatu dotyczącego solitonów.

Wielu flzyków-trekkerów podzieliło się ze mną swoimi przemyśleniami na 

temat praw fizyki w świecie Star Trek. Szczególnie jestem wdzięczny: Markowi 

Srednickiemu, Martinowi Whi-te'owi, Chuckowi Rosenblattowi i Davidowi 

Brahmowi za

wskazanie użytecznych przykładów z serialu. Chciałbym również 

podziękować trekkerom, którzy odpowiedzieli na moje pytanie (przesłane pocztą 

elektroniczną) o ulubione zagadnienia fizyczne i najciekawsze pomyłki, a zwłaszcza: 

Scottowi Specko-wi, „Westy'emu” z NASA, T. J. Goldstelnowi, Denysowi Proteau i 

J. Dildayowi - za utwierdzenie mnie w moim własnym wyborze lub zasugerowanie 

innych użytecznych przykładów. Jestem również wdzięczny wielu studentom z Case 

Western Reserve University, a zwłaszcza Ryanowi Smithowi, za gotowość do 

udzielania informacji.

Znaczący wkład wnieśli również inni trekkerzy. Chciałbym podziękować 

Annie Fortunato za przeczytanie l skomentowanie pierwszych wersji rękopisu i wiele 

użytecznych sugestii. Swoją opinię przekazał mi również Mark Landau z 

background image

wydawnictwa HarperCollins. Jeffrey Robbins, w tym czasie redaktor w Oxford 

University Press, był łaskaw wskazać ważne źródło traktujące o napędzie 

czasoprzestrzennym. Mój wuj Herb Title, zapalony trekker, przeczytał rękopis, 

podobnie jak mój współpracownik Peter Keman. Obydwaj podzielili się ze mną 

cennymi uwagami. W wiele fragmentów rękopisu znaczący wkład wniosła moja żona 

Kate.

Jestem bardzo wdzięczny Gregowi Sweeneyowi i Janelle Ke-berle za 

udostępnienie mi ich kompletnej, skatalogowanej kolekcji kaset wideo ze Star Trek, 

którymi mogłem dysponować przez cztery miesiące w czasie pisania tej książki. 

Miały one dla mnie podstawowe znaczenie i posługiwałem się nimi nieustannie.

Szczególne podziękowania jestem winien redaktorce z Basic Books, Susan 

Rabiner, bez której ta książka nigdy by nie powstała. To Susan ostatecznie przekonała 

mnie, bym zajął się tym tematem, i zaraziła tym pomysłem wydawnictwa Basic i 

HarperCollins. Dziękuję również Kermitowi Hummelowi, prezesowi Basic Books, za 

jego poparcie i entuzjazm. Ostateczny kształt tej książki zależał w znacznym stopniu 

od wiedzy i umiejętności korektorki Sary Lipplncott. Wierzę, że liczne godziny 

spędzone przy faksie i telefonie znalazły odbicie w jakości tekstu.

Na koniec chciałbym podziękować dziekanowi, pracownikom i studentom 

College of Arts and Sciences oraz Wydziału Fizyki Case Western Reserve University 

za wsparcie, a często także wyrozumiałość, zwłaszcza w okresie, gdy praca nad 

książką dobiegała końca. Przyczynili się oni do utrzymania przyjacielskiej i pełnej 

zaangażowania atmosfery, która dodawała mi otuchy, kiedy tego najbardziej 

potrzebowałem.

Jak zawsze na wiele sposobów wspierała moje wysiłki rodzina. Kate i moja 

córka Lilly wiele razy do późna w nocy oglądały odcinki Star Trek, mimo że pewnie 

wolałyby wtedy spać.