ZASADA NIEOZNACZONOŚCI


Sukcesy teorii naukowych, w szczególności teorii ciążenia Newtona, skłoniły na początku XIX wieku francuskiego uczonego markiza de Laplace'a do stwierdzenia, że wszechświat jest całkowicie zdeterminowany. Łapiące uważał, że powinien istnieć zbiór praw naukowych, pozwalających na przewidzenie wszystkiego, co zdarzy się we wszechświecie, jeśli tylko znalibyśmy dokładnie stan wszechświata w określonej chwili. Na przykład, gdybyśmy znali położenie i prędkości planet oraz Słońca w danej chwili, to za pomocą praw Newtona potrafilibyśmy obliczyć stan Układu Słonecznego w dowolnym czasie. W tym akurat wypadku słuszność teorii determinizmu nie budzi, zdaje się, żadnej wątpliwości, ale Laplace poszedł znacznie dalej, zakładając, że istnieją podobne prawa, rządzące wszystkimi zjawiskami, łącznie z zachowaniem ludzkim.

Wielu ludzi zdecydowanie sprzeciwiało się doktrynie naukowego determinizmu, uważając ja. za sprzeczną z przekonaniem o swobodzie boskiej interwencji w sprawy tego świata. Tym niemniej doktryna Łapiące'a pozostała klasycznym założeniem nauki aż do wczesnych lat dwudziestego wieku. Jednym z pierwszych sygnałów wskazujących na konieczność porzucenia tej wiary były obliczenia dokonane przez brytyjskich naukowców, Lorda Rayleigha i Sir Jamesa Jeansa, z których wynikało, że gorący obiekt na przykład gwiazda musi promieniować energię z nieskończoną mocą. Zgodnie z prawami uznawanymi wtedy za obowiązujące, gorące ciało powinno promieniować fale elektromagnetyczne (fale radiowe, światło widzialne, promienie Roentgena) z równym natężeniem we wszystkich częstościach fal. Na przykład, gorące ciało powinno emitować taką samą energię w postaci fal o częstościach od 1 do 2 bilionów drgań na sekundę, co w postaci fal o częstościach od 2 do 3 bilionów drgań na sekundę. Skoro zaś częstość fal może być dowolnie duża, to całkowita wyemitowana energia jest nieskończona.

Aby uniknąć tego śmiesznego, rzecz jasna, wniosku, w 1900 roku niemiecki uczony Max Pianek sformułował tezę, że światło, promienie Roentgena i inne fale elektromagnetyczne nie mogą być emitowane w dowolnym tempie, lecz jedynie w określonych porcjach, które nazwał kwantami. Co więcej, każdy taki kwant ma określoną energię, tym większą, im wyższa częstość fali, zatem przy bardzo wysokiej częstości emisja pojedynczego kwantu wymagałaby energii większej niż ta, jaką dysponowałoby ciało. Wobec tego zmniejsza się natężenie promieniowania o wysokiej częstości i całkowite tempo utraty energii przez promieniujące ciało jest skończone.

Hipoteza kwantowa wyjaśniła znakomicie obserwowane natężenie promieniowania gorących ciał, ale z jej konsekwencji dla koncepcji deterministycznej nie zdawano sobie sprawy aż do 1926 roku, kiedy inny niemiecki uczony, Werner Heisenberg, sformułował swą słynną zasadę nieoznaczoności. Aby przewidzieć przyszłe położenie i prędkość cząstki, należy dokładnie zmierzyć jej obecną prędkość i pozycję. Oczywistym sposobem pomiaru jest oświetlenie cząstki. Część fal świetlnych rozproszy się na cząstce i wskaże jej pozycję. Tą metodą nie można jednak wyznaczyć położenie z dokładnością większą niż odległość między dwoma kolejnymi grzbietami fali świetlnej, jeśli chce się więc dokonać precyzyjnego pomiaru pozycji, należy użyć światła o bardzo małej długości fali. Zgodnie z hipotezą Plancka, nie można jednak użyć dowolnie małej ilości światła trzeba posłużyć się co najmniej jednym kwantem. Pojedynczy kwant zmienia stan cząstki i jej prędkość w sposób nie dający się przewidzieć. Co więcej, im dokładniej chcemy zmierzyć pozycję, tym krótsza musi być długość fali użytego światła, tym wyższa zatem energia pojedynczego kwantu, tym silniejsze będą zaburzenia prędkości cząstki. Innymi słowy, im dokładniej mierzymy położenie cząstki, tym mniej dokładnie możemy zmierzyć jej prędkość, i odwrotnie. Heisenberg wykazał, że nieoznaczoność pomiaru położenia pomnożona przez niepewność pomiaru iloczynu prędkości i masy cząstki jest zawsze większa niż pewna stała, zwana stałą Plancka. Co więcej, ta granica dokładności możliwych pomiarów nie zależy ani od metody pomiaru prędkości lub położenia, ani od rodzaju cząstki. Zasada nieoznaczoności Heisenberga jest fundamentalną, nieuniknioną własnością świata.

Zasada nieoznaczoności ma zasadnicze znaczenie dla naszego sposobu widzenia świata. Nawet dziś, po pięćdziesięciu latach, jej konsekwencje nie zostały w pełni zrozumiane przez wielu filozofów i są wciąż przedmiotem dysput. Zasada nieoznaczoności zmusza do porzucenia wizji teorii nauki stworzonej przez Łapiące'a oraz modelu całkowicie deterministycznego wszechświata: z pewnością nie można dokładnie przewidzieć przyszłych zdarzeń, jeśli nie potrafimy nawet określić z dostateczną precyzją obecnego stanu wszechświata! Możemy sobie wyobrazić, że pewna nadnaturalna istota, zdolna do obserwowania wszechświata bez zaburzenia go, dysponuje zbiorem praw wyznaczających całkowicie bieg zdarzeń. Jednakże takie modele wszechświata nie są specjalnie interesujące dla nas, zwykłych śmiertelników. Rozsądniejsze wydaje się zastosowanie zasady ekonomii myślenia, zwanej brzytwą Ockhama, i usunięcie z teorii wszystkiego, czego nie można zaobserwować. W latach dwudziestych Heisenberg, Schródinger i Dirac przyjęli to podejście i całkowicie przekształcili mechanikę w nową teorię, zwaną mechaniką kwantową, opartą na zasadzie nieoznaczoności. W tej teorii cząstki nie mają oddzielnie zdefiniowanych, dobrze określonych położeń oraz prędkości, których i tak nie da się obserwować. Zamiast tego cząstkom przypisuje się stan kwantowy, podając w nim pewną kombinację informacji na temat położenia i prędkości.

Mechanika kwantowa nie pozwala na ogół przewidzieć konkretnego wyniku pojedynczego pomiaru. Zamiast tego określa ona zbiór możliwych wyników i pozwala ocenić prawdopodobieństwo każdego z nich. Jeśli zatem ktoś wykonuje pewien pomiar w bardzo wielu podobnych układach, z których każdy został przygotowany w ten sam sposób, to otrzyma wynik A pewną liczbę razy, wynik B inną liczbę razy i tak dalej. Można przewidzieć w przybliżeniu, ile razy wynikiem pomiaru będzie A, a ile razy B, ale nie sposób przewidzieć rezultatu pojedynczego pomiaru. Mechanika kwantowa wprowadza zatem do nauki nieuniknioną przypadkowość i nieprzewidywalność. Bardzo stanowczo sprzeciwiał się temu Einstein, mimo iż sam odegrał ważną rolę w rozwoju fizyki kwantowej właśnie za swe osiągnięcia w tej dziedzinie otrzymał Nagrodę Nobla. Einstein nigdy nie pogodził się z faktem, że wszechświatem rządzi przypadek; swe przekonania wyraził w słynnym powiedzeniu Bóg nie gra w kości". Większość uczonych natomiast zaakceptowała mechanikę kwantową, ponieważ jej przewidywania zgadzają się znakomicie z wynikami doświadczeń. Mechanika kwantowa odniosła ogromne sukcesy; leży ona u podstaw niemal całej współczesnej

nauki i techniki. Jej zasady rządzą zachowaniem tranzystorów i obwodów scalonych, które są najważniejszymi elementami urządzeń elektronicznych, takich jak telewizory i komputery, na niej opiera się również nowoczesna chemia i biologia. Spośród nauk fizycznych tylko grawitacja i kosmologia nie zostały jeszcze w pełnym stopniu uzgodnione z mechaniką kwantową.

Światło składa się z fal elektromagnetycznych, jednak hipoteza kwantowa Plancka mówi nam, że pod pewnymi względami światło zachowuje się tak, jakby składało się z cząstek: jest wysyłane i przyjmowane tylko w porcjach, czyli kwantach. Z kolei z zasady nieoznaczoności Heisenberga wynika, że cząstki zachowują się pod pewnymi względami jak fale: nie zajmują one określonej pozycji, lecz są jakby rozsmarowane z pewnym rozkładem prawdopodobieństwa. Mechanika kwantowa opiera się na matematyce zupełnie nowego typu, która nie opisuje już rzeczywistego świata za pomocą pojęć cząstek i fal jedynie obserwacje świata mogą być opisywane w ten sposób. Mechanice kwantowej właściwy jest dualizm cząstek i fal: w pewnych sytuacjach wygodnie bywa uważać cząstki za fale, w innych zaś fale za cząstki. Wynika stąd ważna konsekwencja: możemy obserwować zjawisko, zwane interferencją fal lub cząstek. Może się zdarzyć, że grzbiety jednej fali pokrywają się z dolinami drugiej. Wtedy dwie fale kasują się wzajemnie, a nie dodają do siebie, by utworzyć jedną silniejszą falę, jak można by się spodziewać (rys. 15). Dobrze znany przykład skutków interferencji fal świetlnych stanowią kolory, jakie często dostrzegamy na powierzchni baniek mydlanych. Pojawienie się tych kolorów jest spowodowane odbiciem światła od dwóch powierzchni cienkiej błonki wodnej tworzącej bańkę. Naturalne światło słoneczne składa się z fal świetlnych o długościach odpowiadających wszystkim barwom. Przy pewnych długościach fal, grzbiety fal odbitych od jednej strony błonki pokrywają się z dolinami fal odbitych od drugiej powierzchni. Barw odpowiadających tym długościom brakuje w świetle odbitym, stąd wydaje się ono kolorowe.

Z uwagi na dualizm falowo-korpuskularny interferencja może też nastąpić między dwoma cząstkami. Najlepiej znany przykład to eksperyment z dwiema szczelinami (rys. 16). Wyobraźmy sobie przesłonę z dwiema wąskimi, równoległymi szczelinami. Po jednej stronie przesłony umieszczamy źródło światła o jednym, określonym kolorze (to znaczy o określonej długości fali). Większość światła trafi na przesłonę, ale pewna część przedostanie się przez szczeliny.





Za przesłoną ustawiamy ekran. Do każdego punktu na ekranie dociera światło z obu szczelin. Jednak na ogół odległość, jaką światło musi przebyć, by dotrzeć do źródła przez różne szczeliny do danego punktu, jest różna. To oznacza, że fale świetlne docierające z dwóch szczelin nie muszą być w fazie: docierając do ekranu, w niektórych punktach kasują się wzajemnie, a w innych wzmacniają. W rezultacie powstaje charakterystyczny wzór jasnych i ciemnych prążków.

Na uwagę zasługuje fakt, że identyczny wzór otrzymuje się po zastąpieniu źródła światła źródłem cząstek, takich jak elektrony, o jednakowej prędkości (oznacza to, że odpowiadające im fale mają taką samą długość). Jest to tym bardziej zdumiewające, że wzór interferencyjny nie powstaje, gdy otwarta jest tylko jedna szczelina: otrzymujemy wówczas na ekranie po prostu równomierny rozkład elektronów. Można by zatem sądzić, że otwarcie drugiej szczeliny po prostu zwiększa liczbę elektronów uderzających w ekran, ale w rzeczywistości w niektórych miejscach liczba elektronów maleje z powodu interferencji. Gdy elektrony wysyłane są przez szczeliny pojedynczo, można przypuszczać, że każdy z nich przechodzi tylko przez jedną z dwóch szczelin, a więc zachowuje się tak, jakby druga była zamknięta zatem rozkład elektronów na ekranie powinien być jednorodny. W rzeczywistości jednak wzór interferencyjny powstaje nadal, nawet jeśli elektrony wysyłane są pojedynczo. Zatem każdy z elektronów musi przechodzić przez obie szczeliny jednocześnie!

Zjawisko interferencji między cząstkami ma kluczowe znaczenie dla zrozumienia struktury atomów podstawowych jednostek występujących w chemii i biologii, cegiełek, z których składamy się my i wszystko, co nas otacza. Na początku naszego stulecia uważano, że atomy przypominają układy planetarne, takie jak Układ Słoneczny elektrony (cząstki o ujemnym ładunku elektrycznym) krążą wokół jądra posiadającego ładunek dodatni. Przyciąganie między ładunkami o różnych znakach miało utrzymywać elektrony na orbitach, podobnie jak przyciąganie grawitacyjne utrzymuje planety na ich orbitach wokół Słońca. Kłopot polega na tym, że zgodnie z prawami mechaniki i elektrodynamiki, uznawanymi przed powstaniem mechaniki kwantowej, elektrony bardzo szybko tracą energię i spadają po spirali na jądro. Wynikałoby stąd, że atomy, a tym samym materia, powinny bardzo szybko osiągnąć stan o ogromnej gęstości. Częściowe rozwiązanie problemu znalazł duński fizyk Niels Bohr w 1913 roku. Według jego hipotezy elektrony mogą poruszać się wokół jądra wyłącznie po orbitach o ściśle określonych promieniach, przy czym po jednej orbicie krążyć mogą najwyżej dwa elektrony. To rozwiązuje problem stabilności, ponieważ elektrony mogą zbliżać się do jądra najwyżej na odległość równą promieniowi wolnej orbity o najniższej energii.

Model Bohra wyjaśniał zupełnie dobrze strukturę najprostszego atomu, atomu wodoru, w którym zaledwie jeden elektron okrąża jądro. Nie było jednak jasne, jak należy rozszerzyć ten model, by opisywał bardziej skomplikowane atomy. Również koncepcja ograniczonego zbioru dozwolonych orbit elektronowych wydawała się niczym nie uzasadniona. Nowa teoria mechaniki kwantowej rozwiązała te trudności. Zgodnie z nią, elektron okrążający jądro można uważać za falę o długości zależnej od prędkości elektronu. Długość pewnych orbit odpowiada dokładnie całkowitej (a nie ułamkowej) wielokrotności długości fali elektronu. W takim wypadku grzbiet fali elektronu powstaje w tym samym miejscu w trakcie każdego okrążenia, tak że fale dodają się i wzmacniają: takie orbity odpowiadają dozwolonym orbitom Bohra. Jeśli elektron okrąża jądro po orbicie, której długość nie jest równa całkowitej wielokrotności fali elektronu, to każdy grzbiet fali jest wcześniej czy później skasowany przez dolinę fali; takie orbity nie są dozwolone.

Zgrabnym sposobem uwidocznienia dualizmu falowo-korpuskularnego jest tak zwana suma po historiach, wprowadzona przez amerykańskiego uczonego Richarda Feynmana. Odmiennie niż w mechanice klasycznej, cząstce nie przypisuje się jednej historii, czyli trajektorii w czasoprzestrzeni, ale przyjmuje się, że cząstka podróżuje od A do B po wszystkich możliwych drogach. Z każdą trajektorią związane są dwie liczby: jedna przedstawia amplitudę fali, a druga jej fazę (faza określa, czy mamy grzbiet, czy dolinę fali, czy też może jakiś punkt pośredni). Prawdopodobieństwo przejścia z A do B znajdujemy, dodając do siebie fale związane z wszystkimi drogami. Na ogół fazy sąsiadujących trajektorii należących do pewnego zbioru znacznie się różnią. Oznacza to, że fale odpowiadające tym trajektoriom kasują się wzajemnie niemal całkowicie. Istnieją jednak pewne zbiory sąsiednich dróg, dla których fale mają bardzo zbliżone fazy; fale związane z tymi drogami nie kasują się wzajemnie. Dozwolone orbity Bohra to właśnie takie trajektorie.

Opierając się na powyższych koncepcjach, wyrażonych w matematycznej formie, można stosunkowo łatwo obliczyć orbity dozwolone w bardziej skomplikowanych atomach, a nawet cząsteczkach, które są zbudowane z wielu atomów utrzymywanych razem przez elektrony, poruszające się po orbitach otaczających więcej niż jedno jądro. Ponieważ struktura cząsteczek i ich reakcje między sobą stanowią podstawę chemii i biologii, mechanika kwantowa pozwala nam teoretycznie rzecz biorąc przewidzieć wszystko, co dzieje się wokół nas, z dokładnością ograniczoną przez zasadę nieoznaczoności. (W praktyce jednak obliczenia dla układów zawierających więcej niż kilka elektronów są tak skomplikowane, że nie potrafimy ich wykonać).

Ogólna teoria względności Einsteina wyznacza jak się zdaje wielkoskalową strukturę wszechświata. Jest to teoria klasyczna nie uwzględnia bowiem zasady nieoznaczoności mechaniki kwantowej, choć czynić to powinna, by zachować spójność z innymi teoriami. Ogólna teoria względności pozostaje w zgodzie z obserwacjami tylko dlatego, że w normalnych warunkach mamy do czynienia z bardzo słabymi polami grawitacyjnymi. Jak już jednak widzieliśmy, z twierdzeń o osobliwościach wynika, że pole grawitacyjne staje się bardzo silne w dwóch co najmniej sytuacjach: w otoczeniu czarnych dziur oraz w trakcie wielkiego wybuchu i tuż po nim. W tak silnych polach efekty kwantowo--mechaniczne odgrywają ważną rolę. A zatem klasyczna teoria względności, przewidując istnienie osobliwości czasoprzestrzeni, w pewnym sensie zapowiada swój upadek, podobnie jak klasyczna (to znaczy nie-kwantowa) mechanika zapowiadała swój, gdyż prowadziła do wniosku, że atomy powinny zapaść się do stanu o nieskończonej gęstości. Nie dysponujemy jeszcze spójną teorią, łączącą teorię względności z mechaniką kwantową, znamy tylko niektóre jej cechy. Konsekwencje takiej teorii dla czarnych dziur i wielkiego wybuchu omówimy w dalszych rozdziałach. Najpierw jednak rozważymy niedawne próby zrozumienia wszystkich niegrawitacyjnych sił natury w ramach jednej, jednolitej teorii kwantowej.