Hempel, Socjologia, Socjologia. Różne pliki


Carl G. Hempel

FILOZOFIA NAUK PRZYRODNICZYCH

przełożyła Barbara Stanosz

Rozdział 3

TESTOWANIE HIPOTEZY: LOGIKA I MOC UZASADNIAJĄCA TESTU

Testy eksperymentalne i nieeksperymentalne

[1] Zajmijmy się teraz bardziej szczegółowo rozumowaniem, na którym opierają się testy naukowe, oraz konkluzjami, do których upoważniają ich wyniki. Będziemy, podobnie jak poprzednio, określać terminem "hipoteza" każde twierdzenie testowalne, niezależnie od tego, czy jest ono opisem pewnego jednostkowego faktu lub zdarzenia, czy też ma wyrażać ogólne prawo albo jakiś inny, jeszcze bardziej złożony sąd.

[2] Zacznijmy od prostego spostrzeżenia, do którego będziemy się często odwoływać w dalszych naszych rozważaniach: implikacje testowe hipotez naukowych mają zazwyczaj charakter warunkowy; głoszą one, że w pewnych określonych warunkach wystąpi pewne określone zjawisko. Zdaniom takim można nadać postać explicite warunkową, formułując je według następującego schematu:

(3a) Jeśli będzie spełniony warunek C, to wystąpi zdarzenie E.

[3] Na przykład jedna z hipotez, którą brał pod uwagę Semmelweis, miała jako implikację testową zdanie:

Jeśli pacjentki pierwszego oddziału będą rodzić, leżąc na boku, to śmiertelność spowodowana gorączką połogową zmaleje.

Jedna zaś z implikacji testowych jego ostatecznej hipotezy głosiła:

Jeśli osoby opiekujące się położnicami na pierwszym oddziale będą myły ręce w roztworze wapna chlorowanego, to śmiertelność spowodowana gorączką połogową zmaleje.

[4] Podobnie wśród implikacji testowych hipotezy Torricellego było zdanie warunkowe:

Jeśli barometr Torricellego będzie wnoszony na coraz większą wysokość, to słupek rtęci będzie opadał coraz niżej.

[5] Implikacje testowe tego rodzaju są więc implikacjami w dwojakim sensie: są one implikacjami hipotez, z których zostały wyprowadzone, a nadto mają postać zdań warunkowych, które w logice nazywa się zdaniami implikacyjnymi lub krótko implikacjami.

[6] W każdym z trzech cytowanych powyżej przykładów zrealizowanie odpowiedniego warunku C jest technicznie wykonalne i można je spowodować na życzenie; urzeczywistnienie tych warunków obejmuje przy tym możliwość kontrolowania czynnika (pozycja podczas porodu, występowanie lub niewystępowanie substancji infekcyjnych, wartość ciśnienia atmosferycznego), który - zgodnie z daną hipotezą - ma wpływ na badane zjawisko (wystąpienie gorączki połogowej w pierwszych dwu przypadkach, wysokość słupka rtęci w trzecim). Implikacje testowe tego rodzaju pozwalają więc wykonać test eksperymentalny, polegający na zrealizowaniu warunku C i sprawdzeniu, czy - zgodnie z testowaną hipotezą - występuje wówczas zjawisko E.

[7] Liczne hipotezy naukowe formułowane są w terminach ilościowych. W najprostszym przypadku wyrażają one wartość pewnej wielkości zmiennej jako matematyczną funkcję pewnej innej zmiennej. Na przykład klasyczne prawo dotyczące gazów, V = c ∙ T/P, wyraża objętość dowolnej porcji gazu jako funkcję jego temperatury i ciśnienia (c jest wartością stałą). Zdanie tego rodzaju ma nieskończenie wiele ilościowych implikacji testowych. W naszym przykładzie mają one następującą postać: jeśli temperatura danej porcji gazu wynosi T1, a ciśnienie P1, to jego objętość jest równa c ∙ T1/P1. Test eksperymentalny polega tu na zmienianiu wartości zmiennych "niezależnych" i sprawdzaniu, czy zmienna "zależna" przyjmuje wartości zgodne z hipotezą.

[8] Gdy sterowanie eksperymentalne jest niemożliwe, tj. gdy wymieniony w implikacji testowej warunek C nie może być na życzenie realizowany lub zmieniany za pomocą środków technicznych, którymi dysponujemy, wówczas hipotezę trzeba testować w sposób nieeksperymentalny, wyszukując lub oczekując na przypadki, w których natura sama zrealizuje ów warunek, i dopiero wtedy sprawdzając, czy E istotnie występuje.

[9] Mówi się niekiedy, że w eksperymentalnym teście hipotezy ilościowej tylko jedna z występujących w hipotezie wielkości zmienia się w czasie, natomiast wszystkie inne pozostają stałe. Jest to jednak nieosiągalne. Na przykład w teście eksperymentalnym podanego wyżej prawa dotyczącego gazów można zmieniać ciśnienie, zachowując stałą temperaturę, lub przeciwnie, lecz wiele innych czynników będzie podczas tej procedury ulegać zmianom; do takich czynników może należeć względna wilgotność, jaskrawość oświetlenia czy natężenie pola magnetycznego w laboratorium, a już na pewno odległość badanej porcji gazu od Słońca i Księżyca. Nie ma też powodu starać się o to, by jak najwięcej czynników tego typu pozostawało stałych, gdy eksperyment ma być testem owego prawa, głosi ono bowiem, że objętość danej porcji gazu jest całkowicie wyznaczona przez temperaturę i ciśnienie. Wynika stąd, że inne czynniki są w tym sensie "nieistotne dla objętości", iż ich zmiany nie mają wpływu na objętość gazu. Dopuszczając zmienność tych czynników, uwzględnia się tym samym szerszy zakres przypadków, które mogą podważyć badaną hipotezę.

[10] Jednakże eksperyment stosowany jest w nauce nie tylko jako metoda testowania, lecz także jako metoda odkrywania; jak zobaczymy za chwilę, w tym drugim przypadku warunek, by pewne czynniki pozostawały stałe, ma istotne znaczenie.

[11] Ilustracją posługiwania się eksperymentem jako metodą testowania są eksperymenty Torricellego i Périera. Najpierw wysunięto hipotezę, potem przeprowadzono eksperyment, który był jej testem. Natomiast w sytuacji, gdy żadna określona hipoteza nie została dotąd sformułowana, punktem wyjścia badań może być jakiś ogólnikowy domysł, eksperyment zaś może służyć do sprecyzowania tego domysłu. Chcąc ustalić, w jaki sposób drut metalowy jest rozciągany przez zawieszony na nim odważnik, badacz przypuszcza na wstępie, że wydłużenie się drutu zależy od jego początkowej długości, od wielkości przekroju, od rodzaju metalu, z którego drut jest wykonany, oraz od ciężaru zawieszonego na nim ciała. Wykonane następnie eksperymenty pozwalają badaczowi ustalić, czy czynniki te istotnie mają wpływ na wydłużenie drutu (eksperyment służy wtedy jako metoda testowania), a jeśli tak, to w jaki sposób wyznaczają one "zmienną zależną", tj. jaki jest dokładny wzór matematyczny tej zależności (eksperyment służy wówczas jako metoda odkrywania). Wiedząc, że długość drutu zmienia się wraz z jego temperaturą, eksperymentator zadba przede wszystkim o to, aby temperatura była stała, chce bowiem wyeliminować zakłócenia w eksperymencie powodowane przez ten czynnik (choć później może systematycznie zmieniać temperaturę po to, by przekonać się, czy wartości pewnych parametrów w funkcjach, które wiążą wzrost długości z innymi czynnikami, zależą od temperatury, czy nie). Wykonując eksperyment w stałej temperaturze, będzie on zmieniał kolejno każdy czynnik, który uzna za istotny, zachowując pozostałe bez zmian. Na podstawie otrzymanych w ten sposób wyników będzie formułował próbne uogólnienia wyrażające wzrost długości drutu jako funkcję jego długości przed obciążeniem, funkcję ciężaru zawieszonego ciała itd.; następnie może przystąpić do sformułowania bardziej ogólnego prawa, które wyrazi wzrost długości jako funkcję wszystkich badanych zmiennych.

[12] W przypadkach tego rodzaju, tj. wówczas, gdy eksperyment gra rolę heurystyczną, naprowadzając na właściwą hipotezę, postulat zachowania bez zmian wszystkich "istotnych czynników" z wyjątkiem jednego jest w pełni uzasadniony. Jednakże w najlepszym przypadku jest on, oczywiście, realizowany tylko w tym sensie, że oprócz jednego czynnika wszystkie spośród tych, które uznajemy za "istotne" (tj. mające wpływ na zjawisko badane), są stałe; zawsze istnieje możliwość, że któryś z istotnych w tym sensie czynników nie został wzięty pod uwagę.

[13] Jedną z najbardziej charakterystycznych własności nauk przyrodniczych, a zarazem jedną z ich najmocniejszych stron, jest to, że wiele hipotez formułowanych w tych naukach dopuszcza testy eksperymentalne. Jednakże możliwość eksperymentalnego testowania hipotez nie jest cechą, która odróżnia nauki przyrodnicze od pozostałych. Nie wyznacza ona granicy między naukami przyrodniczymi i społecznymi, ponieważ testy eksperymentalne stosowane są również w psychologii i - choć w mniejszym stopniu - w socjologii. Nadto zakres badań, w których możliwe są testy eksperymentalne, rozszerza się stale wraz z postępem techniki. Wreszcie nie wszystkie hipotezy w naukach przyrodniczych podlegają eksperymentalnemu testowaniu. Weźmy na przykład sformułowane przez Leavitta i Shapleya prawo okresowych zmian jasności pewnych gwiazd zmiennych, zwanych cefeidami klasycznymi. Prawo to głosi, że im dłuższy jest okres zmienności P takiej gwiazdy, tj. przedział czasowy między dwoma kolejnymi stanami jej maksymalnej jasności, tym większa jest jasność specyficzna tej gwiazdy; sformułowane w terminach ilościowych prawo to ma postać wzoru M = - (a + b ∙ log P), przy czym M jest wielkością, która na mocy definicji zmienia się odwrotnie niż jasność gwiazdy. Z prawa tego dedukcyjnie wynika dowolnie dużo zdań testowych stwierdzających, jaka jest wielkość cefeidy o takim a takim okresie zmienności, np. 5,3 dnia lub 17,5 dnia. Ale cefeid o danym okresie zmienności nie można stworzyć na życzenie, prawo to nie podlega zatem testowi eksperymentalnemu. Astronom musi ograniczyć się do poszukiwania nowych cefeid; znalazłszy je, może sprawdzić, czy ich wielkość i okres zmienności spełniają domniemane prawo.

Rola hipotez pomocniczych

[14] Powiedzieliśmy powyżej, że implikacje testowe są "wywodzone" lub "wywnioskowywane" z hipotezy, która ma być poddana testowi. Twierdzenie to jednak tylko z grubsza charakteryzuje stosunek zachodzący między hipotezą a zdaniami, które służą jako jej implikacje testowe. W niektórych przypadkach z hipotezy rzeczywiście można wywnioskować dedukcyjnie pewne zdania warunkowe nadające się do roli zdań testowych tej hipotezy. Tak więc, jak widzieliśmy, z prawa Leavitta-Shapleya wynikają dedukcyjnie zdania postaci: "jeśli gwiazda s jest cefeidą o takim a takim okresie zmienności, to jej wielkość jest taka a taka". Często jednak "wywodzenie" implikacji testowych nie jest procedurą ani tak prostą, ani tak konkluzywną. Weźmy na przykład hipotezę Semmelweisa, zgodnie z którą gorączka połogowa jest powodowana przez wprowadzenie do krwiobiegu substancji infekcyjnej, i rozważmy implikację testową, jaką jest zdanie: "jeśli osoby opiekujące się pacjentkami będą myły ręce w roztworze wapna chlorowanego, to śmiertelność wywołana gorączką połogową zmaleje". Zdanie to nie wynika dedukcyjnie z samej hipotezy; aby je wywieść, trzeba przyjąć dodatkową przesłankę, która głosi, że w przeciwieństwie do wody i mydła roztwór wapna chlorowanego usuwa substancję infekcyjną. Przesłanka ta, przyjęta milcząco w rozumowaniu Semmelweisa, odegrała przy wywodzeniu zdania testowego rolę tzw. założenia pomocniczego lub hipotezy pomocniczej. Nie mamy zatem prawa twierdzić, że jeśli hipoteza H jest prawdziwa, to prawdą musi być również implikacja testowa I, lecz tylko - że jeśli H oraz hipoteza pomocnicza są prawdziwe, to prawdą jest również I. Odwoływanie się do hipotez pomocniczych nie jest, jak zobaczymy, wyjątkiem, lecz raczej regułą przy testowaniu hipotez naukowych; ma też ono nader ważne konsekwencje dla zagadnienia, czy znalezienie testu negatywnego, tj. takiego, w którym I jest fałszywa, może być podstawą odrzucenia badanej hipotezy.

[15] Gdy hipoteza H sama implikuje I, a dane empiryczne wykazują fałszywość I, wówczas H musi być również uznana za fałszywą; prowadzi do tego rozumowanie według modus tollens (2a). Jeśli jednak I została wywiedziona z H w połączeniu z jedną lub więcej hipotez pomocniczych A, to schemat (2a) należy zastąpić następującym schematem:

Jeżeli H i A są jednocześnie prawdziwe, to I jest prawdziwa.

(3b) Ale (jak pokazuje doświadczenie) I nie jest prawdziwa.

H i A nie są jednocześnie prawdziwe.

Tak więc ilekroć test wykazuje, że I jest fałszywa, możemy wywnioskować stąd tylko tyle, że albo hipoteza H, albo jedno z założeń pomocniczych A muszą być fałszywe; test nie jest zatem konkluzywną podstawą do odrzucenia H. Na przykład gdyby zarządzenia Semmelweisa w sprawie aseptyki nie pociągnęły za sobą spadku śmiertelności, to hipoteza Semmelweisa mimo to mogła być prawdziwa: o negatywnym wyniku testu mogła bowiem przesądzić nieskuteczność roztworu wapna chlorowanego jako środka dezynfekcyjnego.

[16] Sytuacje tego typu nie są jedynie abstrakcyjną możliwością. Astronom Tycho Brahe, którego ścisłe obserwacje stały się empiryczną podstawą sformułowanych przez Keplera praw ruchu planet, odrzucał koncepcję Kopernika, że Ziemia krąży dokoła Słońca. Uzasadniał to m.in. następująco: gdyby hipoteza Kopernika była prawdziwa, to kierunek, w którym o ustalonej porze dnia obserwuje się z Ziemi gwiazdy stałe, powinien się stopniowo zmieniać, ponieważ podczas rocznego obrotu Ziemi wokół Słońca punkt widzenia obserwatora przesuwałby się stale - podobnie jak punkt widzenia dziecka na karuzeli, które widzi twarze stojących wokół osób w stale zmieniającym się kierunku. Mówiąc ściślej, kierunek od obserwatora do gwiazdy powinien zmieniać się okresowo między dwoma ekstremami odpowiadającymi przeciwległym punktom orbity ziemskiej. Kąt wyznaczony przez te punkty i gwiazdę nazywany jest roczną paralaksą gwiazdy; im dalej od Ziemi znajduje się gwiazda, tym mniejsza jest jej paralaksa. Brahe, który dokonywał swoich obserwacji przed wynalezieniem teleskopu, próbował znaleźć - za pomocą najbardziej precyzyjnych ze swych instrumentów - świadectwa takiego "paralaktycznego ruchu" gwiazd stałych; nie znalazł ich jednak. Odrzucił więc hipotezę o ruchu Ziemi. Ale implikację testową, zgodnie z którą gwiazdy stałe podlegają obserwowalnemu ruchowi paralaktycznemu, można wywieść z hipotezy Kopernika tylko przy pomocniczym założeniu, że gwiazdy stałe znajdują się tak blisko Ziemi, iż ich ruch paralaktyczny jest dostatecznie duży, by dało się go wykryć za pomocą instrumentów Tychona Brahe. Brahe wiedział, że przyjmuje to pomocnicze założenie, był jednak przekonany, że można je uznać za prawdziwe. Czuł się więc uprawniony do odrzucenia koncepcji Kopernika. Później okazało się, że gwiazdy stałe wykazują przemieszczenia paralaktyczne, natomiast pomocnicza hipoteza Tychona Brahe jest błędna: nawet najbliższe gwiazdy stałe znajdują się znacznie dalej, niż sądził Brahe, wskutek czego pomiary ich paralaks wymagają potężnych teleskopów i precyzyjnych technik. Pierwszego ogólnie akceptowanego pomiaru paralaksy gwiezdnej dokonano dopiero w 1838 r.

[17] Znaczenie hipotez pomocniczych w testowaniu sięga jeszcze dalej. Załóżmy, że hipoteza H jest testowana przez sprawdzenie implikacji testowej "jeśli C, to E", wywiedzionej z H i zbioru A hipotez pomocniczych. Test polega ostatecznie na stwierdzeniu, czy E występuje, czy też nie występuje w sytuacji testowej, w której - według tego, co wiadomo badaczowi - spełnione są warunki C. Jeśli w rzeczywistości tak nie jest - ponieważ np. urządzenia testowe są uszkodzone lub niedostatecznie czułe - to E może nie wystąpić, mimo że H i A są prawdziwe. Dlatego można przyjąć, że do zbioru założeń pomocniczych należy także przypuszczenie, że sytuacja testowa spełnia warunki C.

[18] Jest to szczególnie ważne wówczas, gdy badana hipoteza została już potwierdzona przez testy wykonane poprzednio i jest istotnym składnikiem większego systemu wzajemnie powiązanych hipotez, za którym również przemawiają rozmaite dane empiryczne. W takim przypadku niewystąpienie E próbuje się zwykle wyjaśnić tym, że test nie spełnia pewnych warunków C.

[19] Jako przykład rozważmy hipotezę, która głosi, że ładunki elektryczne mają strukturę atomistyczną, przy czym każdy z nich jest całkowitą wielokrotnością ładunku atomu elektryczności, elektronu. Hipoteza ta znalazła bardzo mocne poparcie w eksperymentach dokonanych przez R. A. Millikana w 1909 r. i później. Eksperymenty te polegały na wyznaczaniu ładunków elektrycznych pojedynczych, bardzo małych kropli pewnych cieczy, takich jak oliwa lub rtęć, przez pomiar prędkości kropelek spadających w powietrzu pod wpływem ciążenia lub wznoszących się pod wpływem działającego w przeciwnym kierunku pola elektrycznego. Millikan ustalił, że wszystkie te ładunki albo są równe, albo stanowią małe wielokrotności pewnego podstawowego minimalnego ładunku, który wobec tego utożsamił z ładunkiem elektronu. Na podstawie wielu dokładnych pomiarów wyznaczył jego wartość w jednostkach elektrostatycznych: 4,774 ´ 10-10. Hipoteza ta została wkrótce zakwestionowana przez wiedeńskiego fizyka Ehrenhafta, który oświadczył, że powtórzył eksperyment Millikana i odkrył ładunki znacznie niniejsze niż wyznaczony przez Millikana ładunek elektronu. Analizując wyniki uzyskane przez Ehrenhafta, Millikan wskazał kilka prawdopodobnych źródeł błędu (tj. odchyleń od warunków testowych), tłumaczących pozornie sprzeczne z jego hipotezą dane eksperymentalne uzyskane przez Ehrenhafta: parowanie podczas obserwacji, które zmniejszyło ciężar kropel; tworzenie się warstwy tlenku na kroplach podczas eksperymentu; zakłócające działanie zawieszonych w powietrzu cząstek pyłu; zbaczanie kropel od ogniska teleskopu, który służył do obserwacji; odchylenia od wymaganego, kulistego kształtu małych kropel; nieuchronne błędy w pomiarze czasu ruchu małych cząstek. O dwóch odmiennych cząstkach, które zaobserwował i opisał pewien inny badacz, eksperymentujący z kroplami oliwy, Millikan stwierdził: "Jedynym możliwym wyjaśnieniem dotyczącym tych cząsteczek... jest to, że... nie były one kulkami oliwy", lecz cząstkami pyłu (dz. cyt., s. 169, 170). Millikan oświadcza dalej, że wszystkie wyniki dokładniejszych powtórzeń jego eksperymentu były zasadniczo zgodne z wynikami, które ogłosił wcześniej. Ehrenhaft przez wiele lat kontynuował eksperymenty, chcąc obronić i rozszerzyć swoje odkrycie dotyczące ładunków podelektronowych, ale żaden inny fizyk nie otrzymał takich jak on wyników, wobec czego atomistyczna koncepcja ładunku elektrycznego została utrzymana. Natomiast podana przez Millikana wartość liczbowa ładunku elektronu okazała się nieco za mała; jest rzeczą interesującą, że odchylenie to złożono na karb fałszywości jednej z hipotez pomocniczych Millikana: przypisał on zbyt małą wartość lepkości powietrza przy ocenie danych dotyczących kropli oliwy!

Testy krzyżowe

[20] Powyższe uwagi mają ważne konsekwencje także dla koncepcji tzw. testu krzyżowego, który można krótko scharakteryzować w następujący sposób. Załóżmy, że H1 i H2 są konkurencyjnymi hipotezami na ten sam temat, przy czym obie równie zadowalająco oparły się dotychczasowym testom; żadne z posiadanych świadectw empirycznych nie przemawia za jedną z tych hipotez mocniej niż za drugą. Rozstrzygnięcie może więc nastąpić wtedy, gdy wskaże się test, dla którego H1 i H2 przewidują przeciwne wyniki, tj. pierwsza hipoteza dla określonych warunków testowych C ma implikację testową "jeżeli C, to E1" druga zaś - "jeżeli C, to E2", przy czym El i E2 są wynikami wykluczającymi się nawzajem. Wykonanie odpowiedniego testu powinno zatem obalić jedną z tych hipotez, potwierdzając drugą.

[21] Klasycznym przykładem takiej sytuacji jest eksperyment dokonany przez Foucaulta w celu rozstrzygnięcia, która z dwóch konkurencyjnych koncepcji natury światła jest słuszna. Jedna z nich, wysunięta przez Huyghensa i rozwinięta później Fresnela i Younga, głosi, że światło jest falą poprzeczną, rozchodzącą się w sprężystym ośrodku zwanym eterem; drugą jest korpuskularna koncepcja Newtona, zgodnie z którą światło składa się z niezmiernie małych cząstek poruszających się z wielką prędkością. Każda z tych koncepcji jest zgodna z tezą, że "promienie" świetlne podlegają prawom prostoliniowego rozchodzenia się, odbicia i załamania. Ale koncepcja falowa implikuje tezę, że prędkość światła jest większa w powietrzu niż w wodzie, natomiast koncepcja korpuskularna prowadzi do przeciwnej konsekwencji. W 1850 r. Foucault przystąpił do wykonania eksperymentu, w toku którego prędkości światła w powietrzu i w wodzie zostały bezpośrednio porównane. Za pomocą promieni świetlnych, przechodzących - odpowiednio - przez wodę i powietrze i odbijanych przez bardzo szybko obracające się zwierciadło, wytworzono obrazy dwóch emitujących światło punktów. Zależnie od tego, czy prędkość światła w powietrzu jest większa, czy mniejsza niż w wodzie, obraz pierwszego źródła światła powinien pojawić się na prawo lub na lewo od drugiego. Przeciwne implikacje testowe, poddawane sprawdzeniu w tym eksperymencie, można więc sformułować krótko, jak następuje: "jeżeli wykona się eksperyment Foucaulta, to pierwszy obraz pojawi się na prawo od drugiego" oraz "jeżeli wykona się eksperyment Foucaulta, to pierwszy obraz pojawi się na lewo od drugiego". Eksperyment wykazał, że pierwsza z tych implikacji jest prawdziwa.

[22] Wynik ten został powszechnie uznany za definitywne obalenie korpuskularnej koncepcji światła i rozstrzygające potwierdzenie koncepcji falowej. Opinia ta, choć naturalna, przeceniała jednak moc dowodową tego testu. Twierdzenie, że światło porusza się szybciej w wodzie niż w powietrzu, nie wynika bowiem bezpośrednio z ogólnej koncepcji promieni świetlnych jako strumieni cząstek; samo to założenie jest zbyt nieokreślone, by mogło pociągać jakąkolwiek konsekwencję ilościową. Implikacje tego typu, jak prawa odbicia i załamania, a także twierdzenie o prędkościach światła w powietrzu i w wodzie, mogą być wywiedzione z ogólnej koncepcji korpuskularnej dopiero po uzupełnieniu jej pewnymi założeniami dotyczącymi cząstek i wpływu, który wywiera na nie ośrodek. Newton sformułował te założenia, budując w ten sposób określoną teorię rozchodzenia się światła. Dopiero cały układ takich podstawowych zasad teoretycznych prowadzi do konsekwencji, które można testować eksperymentalnie - takich jak zdania sprawdzane przez Foucaulta. Podobnie koncepcja falowa była sformułowana jako teoria oparta na zbiorze określonych założeń na temat rozchodzenia się fal eteru w różnych ośrodkach optycznych; tym, co implikowało prawa odbicia i załamania, a także twierdzenie, że światło ma większą prędkość w powietrzu niż w wodzie, był i w tym przypadku cały zbiór założeń teoretycznych. W konsekwencji - zakładając prawdziwość wszelkich innych hipotez pomocniczych - wynik eksperymentu Foucaulta uprawnia tylko do wniosku, że nie wszystkie podstawowe założenia (czy zasady) teorii korpuskularnej są prawdziwe; co najmniej jedno z nich musi być fałszywe. Nie informuje jednak, które założenie należy odrzucić. Dopuszcza zatem możliwość, że ogólna koncepcja korpuskularna światła daje się utrzymać w postaci zmodyfikowanej, po uzupełnieniu jej innym zbiorem podstawowych praw.

[23] Istotnie, w 1905 r. Einstein wysunął zmodyfikowaną wersję koncepcji korpuskularnej w postaci swojej teorii kwantów świetlnych, nazwanych później fotonami. Wśród świadectw empirycznych, na które powoływał się w uzasadnieniu tej teorii, był wynik eksperymentu wykonanego w 1903 r. przez Lenarda. Einstein określił ten eksperyment jako "drugi eksperyment krzyżowy" dotyczący koncepcji falowej i korpuskularnej i stwierdził, że "wyklucza" on klasyczną teorię falową, w której pojęcie sprężystych drgań w eterze należy zastąpić pojęciem poprzecznych fal elektromagnetycznych, pochodzącym od Maxwella i Hertza. Eksperyment Lenarda, w którym wykorzystuje się efekt fotoelektryczny, można traktować jako test dwu przeciwnych implikacji odnośnie do energii świetlnej wysyłanej przez promieniujący punkt P w ustalonej jednostce czasu na mały ekran, prostopadły do kierunku promieniowania. Według klasycznej teorii falowej energia ta stopniowo i nieprzerwanie maleje do zera, gdy ekran oddala się od punktu P; według teorii kwantów energia ta musi być co najmniej równa energii, którą przenosi pojedynczy foton - pod warunkiem że w danym przedziale czasu żaden foton nie uderza w ekran, wtedy bowiem otrzymana energia byłaby równa zeru; nie ma więc stopniowego malenia do zera. Eksperyment Lenarda to potwierdził. Jednakże i w tym przypadku koncepcja falowa nie została ostatecznie obalona: wynik eksperymentu świadczył tylko o tym, że w systemie podstawowych założeń teorii falowej konieczne są pewne zmiany. W istocie Einstein podjął próbę zmodyfikowania klasycznej postaci tej teorii w stopniu możliwie minimalnym. Mówiąc ogólnie, eksperyment tego rodzaju jak omówione wyżej przykłady nie może ostatecznie obalić jednej z dwu konkurencyjnych hipotez.

[24] Nie może również "dowieść", czyli ostatecznie wykazać prawdziwości drugiej z nich, ponieważ - na co wskazywaliśmy już w rozdziale drugim - ani hipotezy, ani teorie naukowe nie dają się nigdy udowodnić w sposób konkluzywny za pomocą świadectw empirycznych, niezależnie od ścisłości i zakresu tych świadectw. Jest to szczególnie oczywiste w przypadku hipotez i teorii, które wyrażają lub implikują prawa ogólne dotyczące procesów nie podlegających bezpośredniej obserwacji - co ilustruje przykład konkurencyjnych teorii światła - albo nawet zjawisk łatwych do zaobserwowania i zmierzenia, takich jak np. swobodne spadanie ciał. Prawo Galileusza dotyczy wszystkich przypadków swobodnego spadania - w przeszłości, w teraźniejszości i w przyszłości - natomiast ogół odpowiednich danych, którymi dysponujemy dowolnej chwili, odnosi się do stosunkowo niewielu przypadków (należących tylko do przeszłości), w których wykonano dokładne pomiary. I nawet jeśli wszystkie zaobserwowane przypadki potwierdzają prawo Galileusza, to oczywiście nie wyklucza to możliwości, że pewne nie obserwowane przypadki w przeszłości lub w przyszłości są z tym prawem niezgodne. Ostatecznie więc nawet najdokładniejszy i najbardziej uniwersalny test nie może ani obalić jednej z dwu hipotez, ani dowieść drugiej; zatem eksperyment krzyżowy w ścisłym sensie jest w nauce niemożliwy. Jednakże eksperymenty tego rodzaju, jak dokonane przez Foucaulta lub Lenarda, można uznać za krzyżowe w sensie praktycznym, mniej ścisłym: wskazują one, że jedna z dwu przeciwstawnych teorii jest w znacznej mierze nieadekwatna, dostarczając zarazem silnych argumentów na rzecz drugiej z nich; w efekcie wpływają często w sposób decydujący na kierunek dalszych badań teoretycznych i eksperymentalnych.

Hipotezy ad hoc

[25] Gdy dany sposób testowania hipotezy H zakłada hipotezy pomocnicze A1 , A2,..., An - tj. gdy hipotezy te są dodatkowymi przesłankami, na podstawie których wywodzi się z H odpowiednią implikację testową I - wówczas, jak już wiemy, negatywny wynik testu, okazujący fałszywość I, świadczy tylko o tym, że bądź H, bądź jedna z hipotez pomocniczych jest fałszywa; jeżeli rezultat testu ma być do takiego zbioru zdań przystosowany, trzeba ten zbiór jakoś zmodyfikować. Zmiana może polegać na modyfikacji lub całkowitym odrzuceniu H, ale może dotyczyć także systemu hipotez pomocniczych. W zasadzie zawsze istnieje możliwość zachowania hipotezy H - nawet wobec zdecydowanie negatywnych wyników testów - o ile zechcemy dokonać dostatecznie radykalnej i często kłopotliwej rewizji hipotez pomocniczych. Nauka nie jest jednak zainteresowana w podtrzymywaniu swych hipotez i teorii za wszelką cenę - i jest to uzasadnione ważnymi względami. Pokażmy to na przykładzie. Zanim Torricelli wystąpił ze swą koncepcją ciśnienia atmosferycznego, działanie pompy ssącej tłumaczono tym, że natura nie znosi próżni (koncepcja horror vacui): woda wznosi się w pompie, aby wypełnić próżnię spowodowaną przez podniesienie tłoka. Twierdzenie to służyło także do wyjaśnienia wielu innych zjawisk. Pisząc do Périera z prośbą o dokonanie eksperymentu na Puy-de-Dóme, Pascal wyraził przekonanie, że oczekiwany wynik będzie "ostatecznym" rozgromieniem tej koncepcji. "Jeśli okaże się, że wysokość rtęci jest mniejsza na szczycie niż u podnóża tej góry, (...) to wyniknie stąd w sposób konieczny, że jedyną przyczyną podtrzymywania rtęci jest ciężar i nacisk powietrza, nie zaś nieznoszenie próżni; jest bowiem zupełnie pewne, że na podnóże góry ciśnie znacznie więcej powietrza niż na jej szczyt, nikt zaś nie może poważnie twierdzić, że u stóp góry natura bardziej nie znosi próżni niż na wierzchołku". Jednakże ta ostatnia uwaga w istocie rzeczy wskazuje sposób uratowania koncepcji horror vacui w obliczu odkrycia Périera. Jego wyniki są zdecydowanie niezgodne z tą koncepcją tylko przy założeniu pomocniczym, które głosi, że intensywność niechęci natury do próżni nie zależy od miejsca. Chcąc pogodzić koncepcję horror vacui z pozornie sprzecznymi z nią danymi doświadczenia, wystarczy wprowadzić inną hipotezę, zgodnie z którą niechęć natury do próżni zmniejsza się wraz ze wzrostem wysokości. Choć jednak założenie to nie jest logicznie wykluczone ani jaskrawo fałszywe, ma ono bardzo wątpliwą wartość naukową. Przyjęcie go byłoby bowiem wprowadzeniem hipotezy ad hoc, tj. wyłącznie dla uratowania hipotezy poważnie zagrożonej przez świadectwo doświadczenia; założenie to nie zostało zasugerowane przez żadne inne dane empiryczne i nie prowadzi do żadnych dodatkowych implikacji testowych. Natomiast hipoteza ciśnienia powietrza ma takie dalsze implikacje. Pascal wspomina m.in., że częściowo napompowany balon wniesiony na szczyt góry powinien wydąć się mocniej.

[26] W połowie XVII wieku grupa fizyków podtrzymywała tezę, że próżnia nie może występować w przyrodzie; chcąc obronić tę tezę w obliczu eksperymentu Torricellego, jeden z nich wysunął hipotezę ad hoc, zgodnie z którą rtęć w barometrze jest podtrzymywana przez "funiculus" - niewidoczną nić, która łączy rtęć z górną częścią wewnętrznej powierzchni rurki szklanej. Według innej teorii - pierwotnie bardzo użytecznej - stworzonej na początku XVIII wieku, spalanie metali wyzwala substancję zwaną flogistonem. Koncepcję tę odrzucono ostatecznie po eksperymentach Lavoisiera, który wykazał, że produkt spalenia metalu waży więcej niż metal przez spaleniem. Ale niektórzy uparci adherenci teorii flogistonu próbowali pogodzić ją z odkryciem Lavoisiera, wysuwając hipotezę ad hoc, że flogiston ma ciężar ujemny, wskutek czego ulotnienie się flogistonu powoduje wzrost ciężaru pozostałości.

[27] Powinniśmy jednak pamiętać, że tylko z perspektywy czasu może wydawać się, iż odrzucenie pewnych sugestii naukowych jako hipotez ad hoc jest sprawą łatwą; w chwili, gdy są one wysuwane, ocena bywa bardzo trudna. Nie ma w istocie żadnego ścisłego kryterium, które pozwoliłoby odróżniać hipotezy ad hoc, choć istnieją odpowiednie wskazówki, o których była już mowa: czy hipoteza została wysunięta tylko dlatego, że pozwala zachować pewną przyjętą dotąd koncepcję mimo zaprzeczających jej świadectw doświadczenia, czy też wyjaśnia również jakieś inne zjawiska? Czy ma ona dalsze interesujące implikacje testowe? Istotny jest fakt następujący: gdy trzeba wprowadzać coraz więcej hipotez jakościowych, aby pogodzić pewną podstawową koncepcję z nowymi danymi doświadczenia, wtedy system jako całość staje się w końcu tak skomplikowany, że musi ustąpić miejsca prostszej koncepcji alternatywnej, gdy taka zostanie wysunięta.

Zasadnicza sprawdzalność i sens empiryczny

[28] Jak już mówiliśmy, żadnego twierdzenia czy zbioru twierdzeń T nie można poważnie traktować jako hipotezy lub teorii naukowej, jeżeli nie da się doń zastosować obiektywnego testu empirycznego, przynajmniej "w zasadzie". Znaczy to, że z T muszą wynikać - w przyjętym powyżej, szerokim znaczeniu - pewne implikacje testowe o schemacie: "jeżeli są spełnione warunki testowe C, to wystąpi wynik E". Ale warunki testowe nie muszą być zrealizowane ani nawet technicznie osiągalne w chwili, w której T jest wysuwane lub brane pod rozwagę. Weźmy np. hipotezę, zgodnie z którą odległość s przebywana w ciągu t sekund przez ciało spadające swobodnie w pobliżu powierzchni Księżyca wynosi 0,8 t2 metrów. Wynika z niej dedukcyjnie wiele implikacji testowych, które głoszą, że odległość przebyta przez takie ciało w ciągu l, 2, 3,... sekund wyniesie 0,8, 3,2, 7,2,... metra. Hipoteza ta jest zatem zasadniczo sprawdzalna, aczkolwiek na razie nie sposób wykonać testów, o których tu mowa [pisane w 1964 r.].

[29] Jeśli jednak twierdzenie (lub zbiór twierdzeń) zasadniczo nie podlega testowaniu, innymi słowy, jeśli w ogóle nie ma ono implikacji testowych, to nie może być poważnie wysunięte i podtrzymywane jako hipoteza (lub teoria naukowa), żadne bowiem dające się pomyśleć dane empiryczne nie będą z nim ani zgodne, ani sprzeczne. Nie ma ono żadnego związku ze zjawiskami empirycznymi, inaczej mówiąc - brak mu empirycznego sensu. Rozważmy np. pogląd, że wzajemne grawitacyjne przyciąganie się ciał fizycznych jest przejawem jakiegoś "upodobania lub naturalnej skłonności" spokrewnionej z miłością, a właściwej ciałom i czyniącej ich "naturalne ruchy zrozumiałymi i możliwymi". Jakie implikacje testowe można by wywieść z tej interpretacji zjawisk przyciągania? Uwzględniając pewne charakterystyczne cechy miłości w zwykłym sensie tego słowa, można sądzić, że według tego poglądu sympatia grawitacyjna winna być selektywna: nie każde dwa ciała fizyczne powinny się przyciągać. Podobnie intensywność sympatii jednego ciała do drugiego nie powinna zawsze równać się sile sympatii tego drugiego do pierwszego ani zależeć od masy ciał odległości, która je dzieli. Ponieważ jednak o wszystkich wymienionych zdaniach wiadomo, że są fałszywe, więc widocznie koncepcja, o której mowa, jest tak pomyślana, że zdania te z niej nie wynikają. W rzeczywistości koncepcja ta głosi tylko, że naturalne skłonności będące podstawą przyciągania grawitacyjnego są spokrewnione z miłością. Twierdzenie to jednak jest tak nieuchwytne, że uniemożliwia wywiedzenie jakiejkolwiek implikacji testowej. Żadne określone fakty nie przemawiają za taką interpretacją grawitacji; żadne możliwe dane, uzyskane z obserwacji lub eksperymentu, ani jej nie potwierdzają, ani nie obalają. W szczególności nie ma więc ona również implikacji dotyczących zjawisk grawitacyjnych; nie może zatem wyjaśniać tych zjawisk ani czynić ich "zrozumiałymi". Dla dalszej ilustracji załóżmy, że ktoś wysuwa tezę alternatywną, iż ciała fizyczne przyciągają się nawzajem i dążą do zbliżenia się do siebie z powodu spokrewnionej z nienawiścią, naturalnej tendencji do zderzenia się i zniszczenia drugiego obiektu fizycznego. Czy istnieje sposób rozsądzenia między tymi dwoma przeciwstawnymi poglądami? Oczywiście, nie. Żaden z nich nie pociąga implikacji, które można by poddać testom: doświadczenie nie wyróżnia więc żadnego z tych poglądów. Nie dlatego że są one "zbyt głębokie", by nauka mogła je rozstrzygnąć: te dwie werbalnie sprzeczne interpretacje po prostu niczego w ogóle nie stwierdzają. W związku z tym pytanie, czy są one prawdziwe, czy fałszywe, nie ma sensu i dlatego właśnie badanie naukowe nie może go rozstrzygnąć. Są to pseudohipotezy: hipotezy tylko z pozoru.

[30] Należy jednak przypomnieć, że hipoteza naukowa zwykle pociąga implikacje testowe dopiero po uzupełnieniu jej pewnymi założeniami pomocniczymi. Tak np. koncepcja Torricellego dotycząca ciśnienia wywieranego przez atmosferę ziemską pociąga za sobą określone implikacje testowe tylko przy założeniu, że ciśnienie powietrza podlega prawom analogicznym do praw ciśnienia wody; założenie to jest m.in. podstawą eksperymentu na Puy-de-Dôme. Chcąc więc rozstrzygnąć, czy dana hipoteza ma sens empiryczny, powinniśmy zadać sobie pytanie, czy jej kontekst zakłada explicite lub implicite jakieś hipotezy pomocnicze i czy w koniunkcji z nimi hipoteza ta ma implikacja testowe (różne od tych, które można wywieść z samych założeń pomocniczych).

[31] Nadto wprowadzane do nauki koncepcje, w swej pierwotnej postaci stwarzają często ograniczone i bardzo nikłe możliwości testowania; na podstawie takich pierwotnych testów hipotezy te przybierają stopniowo postać coraz bardziej określoną, precyzyjną i podlegającą rozmaitym testom.

[32] Z tych powodów - a także z pewnych innych, których omówienie wykracza poza zakres tej książki - nie jest możliwe przeprowadzenie wyraźnej linii granicznej między hipotezami i teoriami, które są zasadniczo sprawdzalne, a tymi, które nie mają tego waloru. Jednakże rozróżnienie to, choć niezbyt ścisłe, ma duże znaczenie i rzuca światło na problem kryteriów oceny doniosłości i mocy wyjaśniającej wysuwanych w nauce hipotez i teorii.

Rozdział 5

PRAWA I ICH ROLA W WYJAŚNIANIU NAUKOWYM

Dwa podstawowe warunki naukowego wyjaśniania

[1] Wyjaśnianie zjawisk świata fizycznego jest jednym z głównych celów nauk przyrodniczych. Niemal wszystkie przykłady badań naukowych, na które powoływaliśmy się dla ilustracji naszych rozważań w poprzednich rozdziałach, służyły właśnie wyjaśnieniu, nie zaś stwierdzeniu jakichś szczegółowych faktów; dotyczyły takich kwestii, jak: Dlaczego kobiety chorują na gorączkę połogową? Dlaczego wznoszenie się wody w pompie jest w charakterystyczny sposób ograniczone? Czemu przechodzenie światła z jednego ośrodka do drugiego przebiega według praw optyki geometrycznej? Itd. W niniejszym rozdziale i w następnym omówimy bardziej szczegółowo problem naukowego wyjaśniania i ten rodzaj zrozumienia zjawisk, który wyjaśnienie naukowe przynosi.

[2] O tym, że człowiek od dawna i wytrwale dążył do zrozumienia ogromnej rozmaitości często kłopotliwych, a niekiedy groźnych zjawisk otaczającego go świata, świadczą liczne mity i metafory, za pośrednictwem których tłumaczył sobie istnienie świata i siebie samego, życie i śmierć, ruch ciał niebieskich, regularne następowanie nocy po dniu i dnia po nocy, zmiany pór roku, pioruny i błyskawice, pogodę i deszcz. Niektóre z tych wyjaśnień opierały się na antropomorficznej koncepcji sił natury, inne odwoływały się do ukrytych, tajemniczych sił lub czynników, jeszcze inne do niezgłębionych planów boskich lub do przeznaczenia.

[3] Wyjaśnienia tego rodzaju mogły niewątpliwie dostarczać człowiekowi pewnego poczucia zrozumienia; przestawał się dziwić i w tym sensie otrzymywał "odpowiedź" na swoje pytanie. Ale niezależnie od tego, jak dalece odpowiedzi takie mogą być zadowalające w sensie psychologicznym, są one nieadekwatne ze względu na cele nauki, która dąży do uzyskania przejrzystego, opartego logicznie na doświadczeniu i dzięki temu sprawdzalnego obrazu świata. Dlatego wyjaśnienie naukowe musi czynić dość pewnym dwóm warunkom, które będziemy nazywać warunkiem istotności i warunkiem sprawdzalności.

[4] Astronom Francesco Sizi w następujący sposób uzasadnił tezę, że wbrew temu, co twierdził współczesny mu Galileusz na podstawie swych obserwacji nieba przez teleskop, Jowisz nie może mieć satelitów:

Jest siedem okien w głowie: dwie dziurki w nosie, dwoje uszu, dwoje oczu i usta; tak samo na niebie są dwie gwiazdy życzliwe, dwie nieżyczliwe, dwie oświetlające i jeden Merkury, niezdecydowany i obojętny. Stąd i na podstawie wielu podobnych zjawisk przyrody, takich jak siedem metali i inne, które można by wyliczać do znudzenia, wnosimy, że liczba planet musi być równa siedem... Nadto te satelity są niewidoczne gołym okiem, nie mogą więc wywierać żadnego wpływu na Ziemię, zatem byłyby bezużyteczne, a wobec tego nie istnieją.

Podstawowy brak tej argumentacji jest oczywisty: "fakty", które się w niej przytacza, jeśli nawet nie budzą wątpliwości, są zupełnie nieistotne dla problemu, o którym mowa: nie stanowią żadnej podstawy do twierdzenia, że Jowisz nie ma satelitów. Sugerowany przez słowa "więc", "zatem", i "wobec tego" związek tych faktów z istnieniem satelitów Jowisza jest czysto pozorny.

[5] Dla przeciwstawienia rozważmy przyjęte w fizyce wyjaśnienie zjawiska tęczy. Głosi ono, że tęcza powstaje w wyniku odbicia i załamania się białego światła słonecznego w kulistych kropelkach wody, które znajdują się w chmurze. Na podstawie odpowiednich praw optyki wyjaśnienie to pozwala oczekiwać pojawienia się tęczy zawsze, ilekroć mocne, białe światło, którego źródło znajduje się za obserwatorem, pada na mgłę, złożoną z drobnych kropel wody. Tak więc nawet gdybyśmy nigdy dotąd nie widzieli tęczy, informacja, której dostarcza fizykalne wyjaśnienie tego zjawiska, byłaby dostateczną podstawą przekonania, że w pewnych określonych okolicznościach pojawi się tęcza. Tę własność powyższego wyjaśnienia nazwiemy właśnie spełnianiem przezeń warunku istotności: przytoczona wyżej informacja, którą wyjaśnienie to zawiera, dostarcza racjonalnej podstawy do wiary, że zjawisko wyjaśniane rzeczywiście wystąpiło lub występuje. Warunek ten musi być spełniony, jeżeli chcemy zasadnie twierdzić: "jest to wyjaśnienie tego zjawiska - należało go oczekiwać w tych okolicznościach".

[6] Warunek istotności jest koniecznym, lecz niewystarczającym warunkiem adekwatnego wyjaśnienia. Na przykład liczne dane wskazujące na przesunięcie ku czerwieni w widmach odległych galaktyk są mocną podstawą przekonania, że galaktyki te oddalają się od naszej z ogromną szybkością, lecz nie tłumaczą, dlaczego tak jest.

[7] Zanim sformułujemy drugi podstawowy warunek, który musi spełniać wyjaśnianie naukowe, weźmy jeszcze raz pod uwagę koncepcję przyciągania grawitacyjnego jako przejawu naturalnej skłonności, zbliżonej do miłości. Jak już zauważyliśmy, koncepcja ta nie ma w ogóle implikacji testowych. Wobec tego żadne dane empiryczne nie mogą jej potwierdzić ani podważyć. Jako pozbawiona treści empirycznej koncepcja ta z pewnością nie dostarcza podstaw, by oczekiwać wystąpienia zjawisk przyciągania grawitacyjnego: brak jej obiektywnej siły wyjaśniającej. Podobne uwagi krytyczne stosują się do wyjaśnień sformułowanych w kategoriach nieodgadnionego przeznaczenia: odwołując się do takich pojęć, nie tylko nie osiąga się jakiegoś szczególnie głębokiego wglądu w rzeczywistość, lecz w ogóle rezygnuje się z wyjaśniania zjawisk. Natomiast twierdzenia, na których opiera się przytoczone powyżej fizykalne wyjaśnienie zjawiska tęczy, mają rozmaite implikacje testowe; dotyczą one np. warunków, w których tęcza jest na niebie widoczna, kolejności składających się na nią barw, pojawiania się tęczy w pyle wodnym, powstającym przy rozbijaniu się fal o skały oraz przy posługiwaniu się urządzeniem do polewania trawników itd. Przykłady te są ilustracją drugiego warunku, który musi spełniać wyjaśnianie naukowe, a który nazywamy warunkiem sprawdzalności: twierdzenia składające się na wyjaśnienie naukowe muszą podlegać testom empirycznym.

[8] Wspomnieliśmy już o tym, że ponieważ koncepcja grawitacji jako utajonej, uniwersalnej sympatii nie ma żadnych implikacji testowych, więc brak jej jakiejkolwiek siły wyjaśniającej: nie można na jej podstawie oczekiwać, że zjawisko grawitacji wystąpi lub że wykaże takie a takie charakterystyczne właściwości: gdyby bowiem koncepcja ta pociągała następstwa tego rodzaju - w dedukcyjnym lub choćby w słabszym, indukcyjno-probabilistycznym sensie - to byłaby sprawdzalna za pomocą tych następstw. Przykład ten wskazuje, że rozważane dwa warunki wyjaśniania naukowego nie są niezależne: wyjaśnienie, które spełnia warunek istotności, spełnia też warunek sprawdzalności (zależność przeciwna oczywiście nie zachodzi).

[9] Zobaczmy teraz, jakie formy przybierają wyjaśnienia naukowe i w jaki sposób czynią one zadość tym dwóm podstawowym warunkom.

Wyjaśnianie dedukcyjno- nomologiczne

[10] Przypomnijmy raz jeszcze wynik eksperymentu dokonanego przez Périera na Puy-de-Dôme: wykazał on, że długość słupka rtęci w barometrze Torricellego zmniejsza się w miarę wzrostu wysokości, na której znajduje się barometr. Koncepcja ciśnienia atmosferycznego wysuwana przez Torricellego i Pascala wyjaśniała to zjawisko; można ją wyłożyć nieco pedantycznie w następujących punktach:

a) W dowolnym miejscu ciśnienie, które wywiera słupek rtęci w zamkniętej części aparatu Torricellego na rtęć znajdującą się pod nim, równe jest ciśnieniu wywieranemu na powierzchnię rtęci w otwartym naczyniu przez słup powietrza nad tym naczyniem.

b) Ciśnienie wywierane przez słupki rtęci i powietrza jest proporcjonalne do ich ciężaru; im krótsze są te słupki, tym mniejsze są ich ciężary.

c) Gdy Périer wnosił aparat na szczyt góry, słup powietrza nad otwartym naczyniem stawał się coraz krótszy.

d) (Zatem) słupek rtęci w zamkniętym naczyniu stawał się w miarę wchodzenia na górę coraz krótszy.

Tak sformułowane wyjaśnienie jest rozumowaniem, w myśl którego zjawisko wyjaśniane, opisane w zdaniu d, jest właśnie tym, którego należy oczekiwać wobec faktów wyjaśniających, omówionych w zdaniach a, b i c; rzeczywiście, zdanie d wynika dedukcyjnie ze zdań wyjaśniających. Te ostatnie dzielą się na dwa rodzaje: zdania a i b mają charakter praw ogólnych, wyrażających stałe zależności empiryczne, natomiast zdanie c opisuje pewne fakty jednostkowe. Tak więc skrócenie słupka rtęci tłumaczy się tu, wskazując, że nastąpiło ono zgodnie z pewnymi prawami przyrody, w wyniku zajścia pewnych szczególnych okoliczności. Wyjaśnienie "dopasowuje" zjawisko wyjaśniane do pewnego układu prawidłowości przyrodniczych i wskazuje, że zjawiska tego należało oczekiwać przy założeniu określonych praw, w odpowiednich okolicznościach szczególnych.

[11] Zjawisko, które ma być wyjaśnione, będziemy odtąd nazywać także zjawiskiem-eksplanandum, zdanie zaś, które je opisuje - zdaniem-eksplanandum. Ilekroć kontekst wskazuje, o czym mowa, zarówno zjawisko wyjaśniane, jak i opisujące je zdanie, będzie nazwane krótko eksplnandum. Zespół zdań zawierających łącznie wyjaśnienie - taki, jak a, b i c w naszym przykładzie - będziemy określać mianem eksplanans.

[12] Jako drugi przykład rozważmy wyjaśnienie pewnej własności tworzenia się obrazu przez odbicie w zwierciadle kulistym; tej mianowicie, że ogólnie 1/u + 1/ν = 2/r przy czym u i ν;; są odpowiednio odległościami punktu-przedmiotu i punktu-obrazu od zwierciadła, r zaś jest promieniem krzywizny zwierciadła. W optyce geometrycznej wyjaśnia się tę prawidłowość za pomocą podstawowego prawa odbicia w zwierciadle płaskim, traktując odbicie promienia świetlnego w każdym punkcie zwierciadła kulistego jako odbicie na płaszczyźnie stycznej do powierzchni kuli. Wyjaśnienie to można sformułować jako rozumowanie dedukcyjne, którego konkluzją jest zdanie-eksplanandum, przesłanki zaś zawierają podstawowe prawa odbicia i prostoliniowego rozchodzenia się światła oraz zdanie stwierdzające, że powierzchnia zwierciadła jest częścią powierzchni kuli.

[13] Podobne rozumowanie, zawierające również wśród przesłanek prawo odbicia w zwierciadle płaskim, wyjaśnia, czemu światło, które pochodzi z małego źródła umieszczonego w ognisku zwierciadła paraboloidalnego, odbija się w postaci wiązki równoległej do osi paraboloidy (zasada ta jest wykorzystywana w technice przy konstrukcji przednich świateł samochodowych, reflektorów i innych urządzeń tego typu).

[14] Każde z przytoczonych wyjaśnień można więc traktować jako rozumowanie dedukcyjne, którego konkluzją jest zdanie-eksplanandum E, a układem przesłanek - eksplanans, składający się z praw ogólnych L1, L2,..., Lr, i ze zdań C1, C2,..., Ck, które stwierdzają pewne fakty szczegółowe. Formę takich rozumowań, będących jednym z typów wyjaśnienia naukowego, przedstawia następujący schemat :

L1, L2,..., Lr

(D-N) C1, C2,..., Ck Eksplanans

E Eksplanandum

Wyjaśnienia tego rodzaju będziemy nazywać wyjaśnieniami dedukcyjnymi przez podciągnięcie pod prawa ogólne lub wyjaśnieniami dedukcyjno-nomologicznymi (termin "nomologiczny" pochodzi od słowa greckiego "nomos", czyli prawo). Prawa wchodzące w skład danego wyjaśnienia naukowego nazywamy też prawami obejmującymi zjawisko-eksplanandum, a o rozumowaniu wyjaśniającym mówimy, że podciąga eksplanandum pod te prawa.

[15] W wyjaśnianiu dedukcyjno-nomologicznym zjawisko-eksplanandum może być pojedynczym faktem, występującym w określonym miejscu i czasie, takim jak wynik eksperymentu Périera. Może być nim także pewna wykryta w przyrodzie regularność, taka jak stałe cechy charakterystyczne tęczy, lub też prawidłowość wyrażana przez prawo empiryczne tego typu, co prawa Galileusza lub Keplera. Wyjaśnienia dedukcyjne takich prawidłowości odwołują się do praw o szerszym zasięgu, takich jak prawa odbicia i załamania lub Newtonowskie prawa ruchu i grawitacji. Takie zastosowanie praw Newtona jest ilustracją faktu, że prawa empiryczne są często wyjaśniane za pomocą zasad teoretycznych dotyczących struktur i procesów leżących u podstaw wyjaśnianych prawidłowości. Do wyjaśnień tego rodzaju wrócimy jeszcze w następnym rozdziale.

[16] Wyjaśnienia dedukcyjno-nomologiczne spełniają warunek istotności w jego najmocniejszej wersji: ze zdań składających się na eksplanans wynika dedukcyjnie zdanie-eksplanandum, a więc wyjaśnienie takie jest logicznie niezawodną podstawą do oczekiwania zjawiska-eksplanandum (wkrótce zapoznamy się z przykładami wyjaśnień naukowych, które spełniają ten warunek tylko w słabszym, indukcyjnym sensie). Czynią one zadość również warunkowi sprawdzalności, eksplanans implikuje bowiem m.in. wystąpienie zjawiska-eksplanandum w określonych okolicznościach.

[17] Niektóre wyjaśnienia naukowe mają postać dokładnie odpowiadającą schematowi (D-N). Jest tak zwłaszcza wtedy, gdy pewne cechy ilościowe jakiegoś zjawiska wyjaśnia się przez matematyczne wyprowadzenie ich z odpowiednich praw ogólnych, jak było w przypadku odbicia światła w zwierciadłach kulistych i paraboloidalnych. Podobny charakter ma słynne wyjaśnienie (podane przez Leverriera oraz niezależnie przez Adamsa) pewnych nieregularności ruchu planety Uran, których na gruncie teorii Newtona nie można było wytłumaczyć przyciąganiem grawitacyjnym innych znanych wówczas planet. Leverrier wysunął przypuszczenie, że zakłócenia te są wynikiem działania grawitacyjnego niewykrytej dotąd planety zewnętrznej, i obliczył położenie, masę i inne cechy, które planeta ta musi mieć, aby zaobserwowane nieregularności dały się wyjaśnić ilościowo. Jego przypuszczenie zostało w pełni potwierdzone przez wykrycie w przewidywanym miejscu nowej planety, Neptuna, posiadającego wszystkie ilościowe własności przypisane mu przez Leverriera. I w tym przypadku wyjaśnienie miało charakter rozumowania dedukcyjnego, którego przesłanki obejmowały prawa ogólne - ściślej, Newtonowskie prawa grawitacji i ruchu - oraz zdania zawierające rozmaite dane szczegółowe na temat nieznanej planety zakłócającej ruch Urana.

[18] Nierzadko jednak wyjaśnienia dedukcyjno-nomologiczne przybierają formę eliptyczną; pomija się w nich pewne założenia, niezbędne dla wyjaśnienia, lecz traktowane w danym kontekście jako pewniki. Wyjaśnienia takie formułuje się czasem w postaci "E, ponieważ C", przy czym E jest zjawiskiem wyjaśnianym, C zaś pewnym wcześniejszym lub towarzyszącym mu zdarzeniem czy stanem rzeczy. Jako przykład może posłużyć zdanie: "Błoto na chodniku pozostaje płynne podczas mrozu, ponieważ zostało posypane solą". Wyjaśnienie to nie wymienia explicite żadnego prawa, ale zakłada milcząco co najmniej jedno: że temperatura zamarzania wody jest niższa, gdy rozpuści się w niej sól. Właśnie dzięki temu prawu fakt posypania błota solą może pełnić rolę wyjaśniającą, ściślej - przyczynową, przypisywaną mu w powyższym zdaniu. Jest ono eliptyczne także pod innymi względami: przyjmuje milcząco pewne założenia co do zwykłych warunków fizycznych, takich jak np. niezbyt niska temperatura. Gdy do zdania głoszącego, że błoto zostało posypane solą, dołączy się wymienione i inne jeszcze, przyjęte milcząco założenia, wówczas otrzyma się przesłanki dedukcyjno-nomologicznego wyjaśnienia faktu płynności błota.

[19] Podobne uwagi można wypowiedzieć w stosunku do podanego przez Semmelweisa wyjaśnienia gorączki połogowej jako powodowanej przez rozkładającą się substancję zwierzęcą, która zostaje wprowadzona do krwiobiegu przez otwartą ranę. Tak sformułowane, wyjaśnienie to nie wymaga żadnego prawa ogólnego, zakłada się w nim jednak, że zanieczyszczenie krwi ową substancją prowadzi zawsze do zakażenia, któremu towarzyszą charakterystyczne symptomy gorączki połogowej; to właśnie zawarte jest w twierdzeniu, że zanieczyszczenie powoduje gorączkę połogową. Semmelweis niewątpliwie przyjmował to uogólnienie jako pewne. Przyczyna choroby Kolletschki nie była dlań problemem etiologicznym: gdy substancja zakaźna została wprowadzona do krwiobiegu, zatrucie krwi musi nastąpić (Kolletschka nie był zapewne pierwszą ofiarą zatrucia krwi w wyniku skaleczenia skażonym skalpelem. Przez tragiczną ironię losu Semmelweis zmarł z tej samej przyczyny). Gdy wymieni się przemilczaną przesłankę, wówczas wyjaśnienie gorączki połogowej odwołuje się w widoczny sposób do pewnego prawa ogólnego.

[20] Powyższe przykłady wskazują, że prawa ogólne są zawsze założeniami wyjaśnień formułowanych za pomocą zdań o schemacie: dane zdarzenie rodzaju G (np. wzrost objętości gazu pod stałym ciśnieniem; przepływ prądu w obwodzie zamkniętym) zostało spowodowane przez pewne zdarzenie innego rodzaju F (np. wzrost temperatury gazu; przemieszczanie obwodu w polu magnetycznym). Aby to uznać, nie musimy wdawać się w skomplikowaną problematykę pojęcia przyczyny; wystarczy zauważyć, że ogólna zasada "ta sama przyczyna, ten sam skutek" w zastosowaniu do wyjaśniania głosi po prostu, że ilekroć występuje zdarzenie rodzaju F, tylekroć towarzyszy mu zdarzenie rodzaju G.

[21] Mówiąc, że wyjaśnienie opiera się na prawach ogólnych, nie twierdzimy bynajmniej, że znalezienie wyjaśnienia wymaga odkrycia praw. Wzbogacenie wiedzy, osiągnięte dzięki wyjaśnieniu, polega czasem na odkryciu pewnego jednostkowego faktu (np. istnienia nieznanej planety czy obecności substancji infekcyjnej na rękach badającego pacjentów lekarza), który za pośrednictwem przyjętych już praw ogólnych tłumaczy zjawisko-eksplanandum. Kiedy indziej (np. w przypadku linii w widmie wodoru) zdobycz nauki w postaci wyjaśnienia jest związana z odkryciem odpowiedniego prawa (Balmer) lub ewentualnie całej teorii (Bohr). W jeszcze innych przypadkach osiągnięcie polega na wykazaniu, że (i w jaki sposób) zjawisko-eksplanandum daje się wytłumaczyć za pośrednictwem praw i danych dotyczących jednostkowych faktów, które są już znane: przykładem takiej sytuacji jest wyjaśnienie polegające na wyprowadzeniu praw odbicia dla kulistego i paraboloidalnego zwierciadła z podstawowych praw optyki geometrycznej, w połączeniu z twierdzeniami dotyczącymi geometrycznych własności tych zwierciadeł.

[22] Problem, którego dotyczy zamierzone wyjaśnienie, nie wyznacza jeszcze rodzaju odkrycia, jakiego wyjaśnienie to wymaga. Tak np. Leverrier poszukiwał również przyczyn odchyleń ruchu Merkurego od toru, po którym zgodnie z teorią planeta ta powinna się poruszać; próbował, jak w przypadku Urana, wytłumaczyć te odchylenia grawitacyjnym oddziaływaniem nieznanej planety, Wulkana, która powinna być bardzo gęstym i bardzo małym ciałem, znajdującym się między Słońcem a Merkurym. Ale planety takiej nie odkryto, a zadowalające wyjaśnienie odchyleń ruchu Merkurego od drogi teoretycznej przyniosła znacznie później ogólna teoria względności, która tłumaczy je za pomocą nowego systemu praw, bez odwoływania się do szczegółowych czynników zakłócających.

Prawa ogólne a przypadkowe uogólnienia

[23] Jak widzieliśmy, prawa odgrywają istotną rolę w wyjaśnianiu nomologiczno-dedukcyjnym. Są one ogniwem, dzięki któremu okoliczności szczegółowe (oznaczone przez C1, C2,..., Ck) mogą służyć wyjaśnieniu występowania danego zjawiska. Kiedy zaś eksplanandum nie jest zjawiskiem jednostkowym, ale pewną prawidłowością, jak np. wspomniane wyżej własności zwierciadeł kulistych i paraboloidalnych, wówczas prawa wyjaśniające dotyczą prawidłowości ogólniejszych, w stosunku do których prawidłowość wyjaśniana jest przypadkiem szczególnym.

[24] Prawa, z których korzysta się w wyjaśnieniach dedukcyjno-nomologicznych, charakteryzują się pewną podstawową wspólną cechą: mają one, jak już mówiliśmy, formę zdań ogólnych. Z grubsza mówiąc, zdanie tego rodzaju stwierdza zachodzenie pewnego regularnie występującego związku między różnymi zjawiskami empirycznymi lub między różnymi aspektami tego samego zjawiska empirycznego. Jest to twierdzenie głoszące, że zawsze i wszędzie, gdzie występują określonego rodzaju warunki F, tam bez wyjątku występują również warunki pewnego innego rodzaju G. (Nie wszystkie prawa naukowe mają tę postać. W następnych punktach zapoznamy się z prawami o postaci probabilistycznej oraz z opieranymi na nich wyjaśnieniami).

[25] A oto kilka przykładów twierdzeń ogólnych: ilekroć przy stałym ciśnieniu rośnie temperatura gazu, tylekroć zwiększa się jego objętość; zawsze, gdy promień świetlny odbija się od płaskiej powierzchni, kąt odbicia jest równy kątowi padania; ilekroć namagnesowany pręt żelazny zostaje złamany na dwie części, każdy z kawałków staje się osobnym magnesem; ilekroć ciało pozostające poprzednio w spoczynku spada swobodnie w próżni w pobliżu powierzchni Ziemi, tylekroć odległość, którą przebywa ono w ciągu t sekund, wynosi 4,9 t2 metra. Większość praw nauk przyrodniczych ma charakter ilościowy; stwierdzają one zachodzenie pewnych określonych związków matematycznych między różnymi ilościowymi własnościami układów fizycznych (np. między objętością, temperaturą i ciśnieniem gazu) lub procesów (np. między czasem i odległością przy swobodnym spadaniu w przypadku prawa Galileusza; między okresem pełnego obrotu planety i jej średnią odległością od Słońca w przypadku trzeciego prawa Keplera; między kątami padania i odbicia w przypadku prawa Snella).

[26] Ściśle mówiąc, zdanie stwierdzające zachodzenie pewnego ogólnego związku traktuje się jako prawo tylko wtedy, gdy istnieją podstawy, by uznać je za prawdziwe: zwrot "fałszywe prawo natury" brzmi dość niezwykle. Gdyby jednak warunek ten był rygorystycznie przestrzegany, wówczas twierdzeń, które nazywamy prawem Galileusza i prawem Keplera, nie można byłoby kwalifikować jako praw, ponieważ według obecnej wiedzy fizykalnej są one spełnione tylko w przybliżeniu, przy czym, jak zobaczymy później, odpowiednia teoria tłumaczy, czemu tak jest. Analogiczne zastrzeżenia dotyczą praw optyki geometrycznej. Na przykład nawet w jednorodnym ośrodku światło nie rozchodzi się po liniach idealnie prostych: może ono zakrzywiać się w pobliżu załamań ośrodka. Dlatego terminem "prawo" będziemy posługiwać się w sposób dość liberalny, stosując go również do takich twierdzeń omawianego tu rodzaju, o których wiadomo, że obowiązują tylko w przybliżeniu i z pewnymi ograniczeniami. Do kwestii tej powrócimy w następnym rozdziale, omawiając wyjaśnianie praw za pomocą teorii.

[27] Stwierdziliśmy, że prawa występujące w wyjaśnieniach dedukcyjno-nomologicznych są twierdzeniami typu: "We wszystkich przypadkach, w których są zrealizowane warunki rodzaju F, zrealizowane są też warunki rodzaju G". Jest jednak rzeczą istotną, że nie wszystkie twierdzenia tej postaci - nawet spośród prawdziwych - można zaliczyć do praw przyrody. Na przykład zdanie: "wszystkie kamienie znajdujące się w tym oto pudle zawierają żelazo", mimo że ma formę ogólną (F jest warunkiem bycia kamieniem znajdującym się w danym pudle, G - warunkiem polegającym na zawieraniu żelaza), jeśli nawet jest prawdziwe, nie zostanie uznane za prawo, lecz za przypadkowe uogólnienie. Podobnie potraktowane będzie np. zdanie: "każdy przedmiot ze szczerego złota ma masę niniejszą niż 100 000 kilogramów". Nie ulega wątpliwości, że wszystkie znane złote przedmioty czynią zadość temu twierdzeniu; istnieje zatem bardzo wiele świadectw, które je potwierdzają, a żadne przypadki sprzeczne z nim nie są znane. W istocie rzeczy jest wielce prawdopodobne, że nigdy w historii świata nie było ani nie będzie przedmiotu ze szczerego złota o masie równej 100000 lub więcej kilogramów. W tym przypadku powyższe uogólnienie byłoby nie tylko mocno traktujemy jako przypadkową, a to dlatego, że żadne spośród praw uznawanych w nauce współczesnej za podstawowe nie wyklucza możliwości istnienia - a nawet możliwości wytworzenia przez nas samych - złotego przedmiotu o masie przekraczającej 100 000 kilogramów.

[28] Tak więc definicja określająca prawa naukowe jako prawdziwe twierdzenia ogólne byłaby nieadekwatna; podaje ona konieczny, lecz nie wystarczający warunek, który muszą spełniać prawa rozważanego tu rodzaju.

[29] Co różni właściwe prawa od uogólnień przypadkowych? Ten ciekawy problem był w ostatnich latach przedmiotem ożywionych dyskusji. Omówimy pokrótce niektóre spośród głównych poglądów reprezentowanych w tej wciąż jeszcze trwającej debacie.

[30] Jedna z tych różnic - dość przekonująca i znamienna - sformułowana została przez Nelsona Goodmana; polega ona na tym, że prawo, w przeciwieństwie do przypadkowego uogólnienia, może posłużyć do uzasadnienia nierzeczywistego okresu warunkowego, tj. zdania o postaci: "gdyby zdarzyło się A, to zdarzyłoby się B", gdy wiadomo, że w istocie A się nie zdarzyło. Tak np. twierdzenie: "gdyby ta oto świeca parafinowa została włożona do kotła z wrzącą wodą, to roztopiłaby się" może być uzasadnione za pomocą prawa głoszącego, że parafina topi się w temperaturze powyżej 60°C (oraz twierdzenia, że temperatura wrzenia wody wynosi 100°C). Natomiast zdanie: "każdy kamień znajdujący się w tym pudle zawiera żelazo" nie może uzasadnić nierzeczywistego okresu warunkowego: "gdyby ten oto kamień znalazł się w tym pudle, to zawierałby żelazo". Podobnie, w przeciwieństwie do prawdziwego, ale przypadkowego uogólnienia, prawo może służyć uzasadnieniu zdań warunkowych typu "jeśli wydarzy się A, to wydarzy się też B", w których kwestia, czy A w istocie się wydarzy, pozostaje otwarta. Przykładem jest tu zdanie: "jeśli ta świeca parafinowa zostanie włożona do wrzącej wody, to świeca ta rozpuści się".

[31] Ściśle związana z powyższą jest pewna inna różnica między prawami a przypadkowymi uogólnieniami, szczególnie interesująca z naszego punktu widzenia: otóż prawa, w przeciwieństwie do przypadkowych uogólnień, mogą być podstawą wyjaśniania. Tak np. rozpuszczenie się tej a tej świecy parafinowej po włożeniu jej do wrzącej wody można wyjaśnić według schematu (D-N), powołując się na wspomniane wyżej fakty szczegółowe oraz na prawo, które głosi, że parafina rozpuszcza się w temperaturze powyżej 60°C. Natomiast faktu, że określony kamień w danym pudle zawiera żelazo, nie da się wyjaśnić w analogiczny sposób, przez powołanie się na twierdzenie ogólne, że wszystkie kamienie w tym pudle zawierają żelazo.

[32] Na pierwszy rzut oka wydaje się, że - kontynuując wyliczanie różnic, o których mowa - to ostatnie zdanie można scharakteryzować jako dogodną, skrótową formę skończonej koniunkcji, mającej postać: "kamień kt zawiera żelazo i kamień k2 zawiera żelazo,... i kamień k63 zawiera żelazo"; natomiast uogólnienie dotyczące parafiny odnosi się do potencjalnie nieskończonego zbioru przypadków, a więc nie może być sformułowane jako skończona koniunkcja zdań o przypadkach indywidualnych. Rozróżnienie to jest sugestywne, lecą zwodnicze. Przede wszystkim bowiem uogólnienie "wszystkie kamienie w tym pudle zawierają żelazo" w istocie nie informuje o tym, ile kamieni jest w pudle, ani też żadnemu z tych kamieni nie nadaj nazwy k1, k2 itd. Zatem zdanie ogólne nie jest logicznie równoważne skończonej koniunkcji wspomnianego rodzaju. Chcąc sformułować taką koniunkcję, musimy dysponować dodatkową informacją, którą można uzyskać przez policzenie i oznaczenie kamieni znajdujących się w pudle. Nadto uogólnienie "każdy przedmiot ze szczerego złota ma masę mniejszą niż 100 000 kilogramów" nie zasługiwałoby na miano prawa nawet wtedy gdyby na świecie istniało nieskończenie wiele złotych przedmiotów. Zatem rozważane kryterium z wielu względów nie wytrzymuje krytyki.

[33] Zauważmy wreszcie, że twierdzenie ogólne może być prawem nawet wtedy, gdy w istocie rzeczy nie stosuje się do żadnych rzeczywistych przypadków. Dla przykładu rozważmy zdanie: "Na każdym ciele niebieskim o promieniu równym promieniowi Ziemi, lecz o dwukrotnie większej masie swobodne spadanie ze stanu spoczynku przebiega według wzoru s = 9,8 t2". Jest zupełnie prawdopodobne, że w całym wszechświecie nie istnieje ciało niebieskie o takich właśnie rozmiarach i masie, a jednak twierdzenie powyższe jest prawem, bowiem wynika ono (a raczej - podobnie jak w przypadku prawa Galileusza - jego przybliżenie) z Newtonowskiej teorii grawitacji i ruchu, połączonej z twierdzeniem, że przyspieszenie ziemskie wynosi 9,8 m/s2; ma więc mocną podstawę teoretyczną, podobnie jak wspomniane poprzednio prawo swobodnego spadku na Księżycu.

[34] Prawo to może służyć do uzasadniania zwykłych i nierzeczywistych okresów warunkowych, dotyczących jego możliwych zastosowań, tj. szczególnych przypadków, które mogą zachodzić lub mogłyby, a nie zachodzą. W podobny sposób teoria Newtona potwierdza nasze twierdzenie ogólne w wersji sugerującej, że ma ono status prawa: "Na każdym możliwym ciele niebieskim, które ma tę samą wielkość co Ziemia, lecz dwukrotnie większą masę, swobodne spadanie spełniałoby wzór s = 9,81 t2". Natomiast uogólnienie na temat kamieni nie daje się sformułować jako twierdzenie, że każdy kamień, który mógłby być w tym pudle, zawierałby żelazo; to ostatnie twierdzenie nie miałoby też, oczywiście, żadnej podstawy teoretycznej.

[35] Podobnie uogólnieniem dotyczącym masy złotych przedmiotów - oznaczmy je literą H - nie posłużylibyśmy się dla uzasadnienia takiego np. zdania: "Dwa przedmioty ze szczerego złota, których suma mas wynosi ponad 100 000 kg, nie mogą być połączone w jeden przedmiot; jeśli zaś połączenie byłoby możliwe, to masa otrzymanego w ten sposób przedmiotu będzie mniejsza niż 100 000 kg". Powszechnie przyjęte teorie fizyki i chemii ani nie wykluczają połączenia, o którym tu mowa, ani nie pozwalają przewidywać, że w przypadku takiego połączenia nastąpi utrata masy. Zatem nawet gdyby uogólnienie H było prawdziwe, tj. gdyby nigdy nie istniały żadne sprzeczne z nim przypadki, stanowiłoby ono jedynie przypadkową zbieżność z punktu widzenia nauki, która dopuszcza istnienie wyjątków wobec H.

[36] Tak więc to, czy twierdzenie wyrażone w formie ogólnej ma charakter prawa, zależy w pewnym stopniu od przyjętych w danej chwili teorii naukowych. Nie znaczy to, że "uogólnienia empiryczne" - twierdzenia ogólne uzasadniane empirycznie, lecz nie mające podstawy w teorii - nie są nigdy kwalifikowane jako prawa: prawa Galileusza, Keplera i Boyle'a są przykładami twierdzeń uznanych za prawa przed ich teoretycznym ugruntowaniem. Rola teorii w tym zakresie jest następująca: twierdzenie ogólne, potwierdzone empirycznie lub dotąd nie sprawdzane, będzie zakwalifikowane jako prawo, jeżeli wynika z przyjętej teorii (twierdzenia tego rodzaju nazywa się często prawami teoretycznymi); natomiast nawet wtedy, gdy jest mocno poparte przez doświadczenie i prawdopodobnie prawdziwe, nie zostanie zaliczone do praw, jeżeli wyklucza pewne hipotetyczne fakty (takie jak połączenie dwu złotych przedmiotów dające przedmiot o masie ponad 100 000 kg), które aktualnie przyjęta teoria uznaje za możliwe.

Wyjaśnianie probabilistyczne: podstawy

[37] Nie wszystkie wyjaśnienia naukowe opierają się na prawach mających formę zdań ściśle ogólnych. Na przykład fakt, że mały Jaś zachorował na odrę, tłumaczy się, mówiąc, że nabawił się tej choroby od swego brata, który przechodził odrę kilka dni wcześniej. Wyjaśnienie to wiąże zdarzenie-eksplanandum z pewnym zdarzeniem wcześniejszym, którym było zetknięcie się Jasia z odrą; to ostatnie zdarzenie można uznać za wyjaśnienie pierwszego, ponieważ istnieje związek między zetknięciem się z odrą i zarażeniem się nią. Związku tego nie wyraża jednak żadne prawo ogólne, ponieważ nie zawsze kontakt z chorym na odrę powoduje zarażenie. Można stwierdzić, że zarażenie się odrą przez osobę, która się z nią zetknęła, jest bardzo prawdopodobne, tj. zachodzi w przeważającej części wszystkich przypadków. Zdania ogólne tego rodzaju, którymi wkrótce zajmiemy się bardziej szczegółowo, będziemy nazywać prawami o postaci probabilistycznej lub krócej prawami probabilistycznymi.

[38] W naszym przykładzie eksplanans składa się więc z wymienionego wyżej prawa probabilistycznego oraz ze zdania, które głosi, że Jaś zetknął się z odrą. W przeciwieństwie do wyjaśnień dedukcyjno-nomologicznych eksplanans ten nie pociąga dedukcyjnie zdania-eksplanandum, które stwierdza, że Jaś zachorował na odrę; bowiem we wnioskowaniach dedukcyjnych, w których przesłanki są prawdziwe, wniosek również musi być prawdziwy, a w naszym przykładzie przy prawdziwych zdaniach składających się na eksplanans zdanie-eksplanandum mogłoby być fałszywe. W formie skrótowej powiemy, że eksplanans pociąga tu zdanie-eksplanandum nie z "dedukcyjną pewnością", lecz z wysokim prawdopodobieństwem.

[39] Powstające w ten sposób rozumowanie wyjaśniające można przedstawić w następującej postaci:

Prawdopodobieństwo nabawienia się odry przez osobę, która zetknęła się z tą chorobą, jest wysokie.

Jaś zetknął się z odrą.

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - [czyni wysoce prawdopodobnym]

Jaś nabawił się odry.

W ogólnie przyjętym zapisie rozumowania dedukcyjnego przesłanki oddziela się od konkluzji pojedynczą linią (por. nasz schemat (D-N)), która wskazuje, że konkluzja wynika logicznie z przesłanek. Przerywana [w wydaniu książkowym: podwójna, W.S.] linia, którą zastosowaliśmy w ostatnim schemacie, ma wskazywać, że "przesłanki" (eksplanans) czynią "konkluzję" (zdanie-eksplanandum) mniej lub bardziej prawdopodobną; stopień tego prawdopodobieństwa jest scharakteryzowany w podanym obok nawiasie.

[40] Rozumowania tego rodzaju będziemy nazywać wyjaśnieniami probabilistycznymi. Zauważyliśmy już, że wyjaśnienie probabilistyczne indywidualnego zdarzenia ma pewne podstawowe cechy wspólne z odpowiednim wyjaśnieniem dedukcyjno-nomologicznym. W obu przypadkach tłumaczy się dane zdarzenie, powołując się na pewne inne, z którym zdarzenie-eksplanandum jest związane jakimś prawem. Ale w jednym przypadku prawo to ma formę ogólną, w drugim zaś - probabilistyczną i podczas gdy wyjaśnienie dedukcyjne wskazuje, że informacja, którą zawiera eksplanans, pozwala oczekiwać eksplanandum z "dedukcyjną pewnością", to wyjaśnienie probabilistyczne wskazuje tylko, że na podstawie informacji zawartej w eksplanansie należy oczekiwać eksplanandum z wysokim prawdopodobieństwem; często prawdopodobieństwo to jest równe "praktycznej pewności", dzięki czemu rozumowania tego rodzaju czynią zadość warunkowi istotności.

17



Wyszukiwarka

Podobne podstrony:
Sztompka Socjologia - ROZDZIAŁ 7 Od działań masowych do ruchów społecznych, Socjologia, Socjologia.
Globalne procesy społeczne, Socjologia, Socjologia. Różne pliki
Metodologia nauk społecznych, Socjologia, Socjologia. Różne pliki
Teoria funkcjonalno-strukturalna, Socjologia, Socjologia. Różne pliki
Socjologia moralnosci Pytania na kolokwium, Socjologia, Socjologia. Różne pliki
Przemiany rodziny, Socjologia, Socjologia. Różne pliki
Dialog kultur, Socjologia, Socjologia. Różne pliki
przykładowa metodologia, Socjologia, Socjologia. Różne pliki
Offe - nowe ruchy spoleczne, Socjologia, Socjologia. Różne pliki
badania spoleczne i ich specyfika, Socjologia, Socjologia. Różne pliki
Komunikacja. 1, Socjologia, Socjologia. Różne pliki
Przesocjalizowana koncepcja człowieka w socjologii współczesnej”, Socjologia, Socjologia. Różne plik
Komunikacja językowa, Socjologia, Socjologia. Różne pliki
Sztompka Socjologia - ROZDZIAŁ 7 Od działań masowych do ruchów społecznych, Socjologia, Socjologia.
Globalne procesy społeczne, Socjologia, Socjologia. Różne pliki
Metodologia nauk społecznych, Socjologia, Socjologia. Różne pliki

więcej podobnych podstron